فیس بوک می خواهد ماشین ها بتوانند جهان را از چشم ما ببینند


در دو سال گذشته ، Facebook AI Research (FAIR) با 13 دانشگاه در سراسر جهان کار کرده است تا بزرگترین مجموعه داده های ویدئویی اول شخص را جمع آوری کند ، به طور خاص برای آموزش مدل های تشخیص تصویر. هوش مصنوعی آموزش داده شده در مجموعه داده در کنترل روبات های تعامل با انسان یا تفسیر تصاویر از عینک های هوشمند بهتر عمل می کند. کریستن گرومن در نمایشگاه نمایشگاه FAIR ، گفت: “ماشین ها قادر خواهند بود در زندگی روزمره ما به ما کمک کنند.”

این فناوری می تواند برای کمک به افراد نیازمند در خانه یا راهنمایی آنها در کاری که در حال یادگیری است مورد استفاده قرار گیرد. مایکل ریو ، محقق بینایی کامپیوتر در Google Brain و دانشگاه استونی بروک در نیویورک ، می گوید:

اما سوء استفاده از آن می تواند آشکار و نگران کننده باشد. این تحقیق توسط فیس بوک ، غول رسانه های اجتماعی که اخیراً توسط سنای آمریکا متهم به سودجویی از رفاه مردم شده است ، حمایت می شود ، همانطور که توسط MIT Technology Review تایید شده است.

مدل کسب و کار فیس بوک و سایر شرکت های Big Tech این است که تا آنجا که ممکن است اطلاعات زیادی از رفتار آنلاین افراد جمع آوری کرده و به تبلیغ کنندگان بفروشند. هوش مصنوعی خاص پروژه می تواند دسترسی به رفتارهای آفلاین روزانه افراد را گسترش دهد ، نشان دهد که در اطراف خانه شما چه اشیایی وجود دارد ، از چه فعالیتهایی لذت می برید ، با چه کسانی وقت می گذرانید و حتی جایی که چشم شما در آن قرار دارد – سطح بی سابقه ای از اطلاعات شخصی.

گرومن گفت: “کارهایی در زمینه حفظ حریم خصوصی انجام می شود که باید این کار را از دنیای تحقیقات اکتشافی خارج کرده و به آنچه که مولد است ، اقدام کرد.” “این اثر ممکن است از این پروژه الهام گرفته شود.”

فیس بوک

بزرگترین آرشیو ویدئویی اول شخص پیش از انتشار شامل 100 ساعت فیلم از افراد در آشپزخانه است. مجموعه داده های Ego4D شامل 3025 ساعت فیلم توسط 855 نفر در 73 مکان مختلف در 9 کشور (ایالات متحده ، انگلستان ، هند ، ژاپن ، ایتالیا ، سنگاپور ، عربستان سعودی ، کلمبیا و رواندا) است.

شرکت کنندگان در سنین و پیشینه های مختلف بودند. برخی از سرگرمی های خود مانند نانوا ، مکانیک ، نجار و عکاس به کار گرفته شدند.

این مجموعه داده های پیش چاپ معمولاً شامل یک کلیپ ویدئویی نیمه متنی است که فقط چند ثانیه طول می کشد. در Ego4D ، شرکت کنندگان هر روز حدود 10 ساعت از هدفون استفاده می کردند و فیلم های اول شخص از فعالیت های نانوشته روزانه ، از جمله قدم زدن در خیابان ، خواندن ، شستن لباس ، خرید ، بازی با حیوانات خانگی ، بازی روی میز و تعامل با دیگران را ضبط می کردند. برخی از فیلم ها همچنین شامل صدا ، اطلاعات در مورد نحوه تمرکز شرکت کننده و دیدگاه های متعدد در یک صحنه است. ریو می گوید این اولین مجموعه داده در نوع خود است.


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم