[ad_1]
طی دو سال گذشته ، فیس بوک AI Research (FAIR) با 13 دانشگاه در سراسر جهان همکاری کرده است تا بزرگترین مجموعه داده های ویدئوهای اولین شخص را جمع آوری کند -به ویژه برای آموزش مدل های تشخیص تصویر عمیق. هوش مصنوعی که در جمع آوری داده ها آموزش دیده است ، بهتر می تواند روبات هایی را که با مردم تعامل دارند کنترل کند یا از عینک های هوشمند تفسیر تصویر ارائه دهد. کریستن گرومن در نمایشگاه FAIR ، که رهبر پروژه است ، می گوید: “اگر آنها واقعاً از این جهان اطلاع داشته باشند ، دستگاه می تواند به طور روزانه به ما کمک کند.”
این فناوری می تواند از افرادی که در خانه به کمک نیاز دارند پشتیبانی کند یا افراد را برای انجام کارها راهنمایی کند. مایکل ریو ، محقق کامپیوتر در Google Brain و دانشگاه استونی بروک در نیویورک ، که در Ego4D دخیل نیست ، می گوید: “فیلم های موجود در این مجموعه داده ها به نحوه درک انسان از جهان نزدیک تر است.”
اما احتمال چنین سوءاستفاده ای روشن و نگران کننده است. بودجه این تحقیق توسط فیس بوک تأمین شد ، غول رسانه های اجتماعی که اخیراً در سنای آمریکا متهم به تأمین سود و نه رفاه عمومی شده است – همانطور که توسط تحقیقات MIT Technology Review پشتیبانی شده است.
مدل کسب و کار فیس بوک و سایر شرکت های Big Tech باید تا حد امکان از رفتارهای آنلاین مردم و فروش آنها به تبلیغ کنندگان استفاده کنند. هوش مصنوعی به تصویر کشیده شده در پروژه می تواند رفتارهای آفلاین روزانه افراد ، بازکردن اشیاء در خانه شما ، فعالیتهای مورد علاقه شما ، گذراندن وقت با آنها و حتی اگر چشم شما متوقف شود را نشان دهد – درجه ای از اطلاعات شخصی که قبلاً وجود نداشته است.
گرومن می گوید: “هنگامی که این موضوع را از دنیای تحقیقات اکتشافی گرفته و به یک محصول تبدیل می کنید ، باید یک مسئله حریم خصوصی وجود داشته باشد.” “کار ممکن است از این پروژه الهام گرفته باشد.”
بزرگترین مجموعه داده های ویدئوهای اول شخص شامل 100 ساعت فیلم افراد در آشپزخانه است. جمع آوری داده های Ego4D شامل 3025 ساعت فیلم توسط 855 نفر در 73 مکان مختلف در نه کشور (ایالات متحده ، انگلستان ، هند ، ژاپن ، ایتالیا ، سنگاپور ، عربستان سعودی ، کلمبیا و رواندا) است.
سن شرکت کنندگان و پیشینه های مختلف بود. برخی برای مشاغل زیبا از قبیل نانوایان ، مکانیک ، نجار ، و غرفه داران زمین استخدام می شوند.
مجموعه داده های قبلی معمولاً شامل کلیپ های ویدئویی نیمه اسکریپت چند ثانیه ای بود. در Ego4D ، شرکت کنندگان هر بار حداکثر تا 10 ساعت از دوربین سوار بر هوا استفاده می کردند و از فعالیت های نانوشته قبلی فیلم می گرفتند ، از جمله قدم زدن در خیابان ، خواندن ، خشکشویی ، خرید ، بازی با حیوانات خانگی ، بازی روی میز و تعامل با دیگران. به برخی از فیلم ها همچنین شامل صدا ، داده ها در مورد نظرات شرکت کنندگان در تمرکز ، و دیدگاه های مختلف در همان صحنه است. ریو گفت ، این اولین داده در نوع خود است.
[ad_2]