خطرات ناشی از مسئولیت تحقیقات هوش مصنوعی از گوگل – کوارتز


هوش مصنوعی ، بیشتر از سایر زمینه های تحقیق ، تحت سلطه شرکت ها است. آزمایشگاه های تحقیقاتی خصوصی در گوگل ، مایکروسافت و فیس بوک تحقیقات بیشتری را نسبت به اکثر دانشگاه ها ارائه می دهند. این شرکتها بودجه کار محققان دانشگاهی را تأمین می کنند. به طور فزاینده ای ، آنها از دانشجویان مالی دکترا حمایت مالی می کنند و با دانشگاه ها معامله می کنند تا از مربیان یک استاد ارزشمند استفاده کنند.

اما طی یک هفته بسیار هیجان انگیز ، گوگل یک مطالعه موردی واضح در مورد خطرات انتقال این همه تحقیقات هوش مصنوعی به شرکت های با فناوری پیشرفته ارائه داده است.

هیچ شرکتی از نظر آلفابت ، شرکت مادر گوگل و آزمایشگاه خواهرش DeepMind که بر هوش مصنوعی تمرکز دارد ، در هوش مصنوعی مسلط نیستند. به طور ترکیبی ، آزمایشگاه های شرکت ها دو برابر بیشتر از هر شرکت یا دانشگاه تحقیقاتی است که در کنفرانس های هوش مصنوعی منتشر شده است. تحقیقات گسترده آنها باعث شده است تا هر بازیکن شطرنج موجود را شکست دهند ، بیش از 100 زبان را ترجمه کنند و کوچکترین اسرار زیست شناسی ما را کشف کنند. و در هفته اول ماه دسامبر ، این مجتمع نشان داد که چگونه رودخانه شرکت های بزرگ به سمت هوش مصنوعی در همه این مناطق سرازیر می شود و منجر به هزینه استانداردهای پایین تر از شفافیت و پاسخگویی می شود.

این در تاریخ 30 نوامبر آغاز می شود ، با یک بیانیه مطبوعاتی خبر از دستیابی به موفقیت در مدل پیش بینی تاشو پروتئین DeepMind AlphaFold می دهد. این مدل برای پیش بینی شکل پروتئین ها بر اساس ترکیب شیمیایی آنها طراحی شده است – مشکلی دردناک که ده ها سال است محققان را آزار می دهد و در صورت حل آن ، پیامدهای عمده ای برای کشف دارو خواهد داشت.

بیانیه مطبوعاتی DeepMind باعث شد “راه حلی برای یک چالش بزرگ زیست شناسی 50 ساله” بر اساس عملکرد پیشگامانه آن در یک رقابت دو ساله به نام ارزیابی انتقادی پیش بینی ساختار پروتئین (CASP). اما این شرکت انتقادات دانشگاهی را به دلیل ادعای خود بدون انتشار نتایج آن در مقاله ای مورد بررسی قرار داد.

“صادقانه بگویم ، اعتیاد به مواد مخدره به درد کسی نمی خورد” توییت مایکل تامپسون ، محقق زیست شناسی ساختاری در دانشگاه کالیفرنیا ، مرسد. “[U]تا زمانی که DeepMind کد خود را به اشتراک بگذارد ، هیچ کس در این زمینه اهمیتی نمی دهد و آنها فقط پشت خود را تیز می کنند. “

DeepMind قول داد یک سند رسمی را منتشر کند ، اما جدول زمانی را مبهم گذاشت. سارا مایرز وست ، محقق فوق دکترا در م Instituteسسه AI Now با تمرکز بر اخلاق در نیویورک ، گفت: “بسیاری از اوقات خواهیم دید که مطبوعات شامل مواردی است كه مورد بررسی قرار نگرفته اند.” “سپس ، وقتی مراحل بررسی همکار را پشت سر می گذارید ، ممکن است با مشکلات یا نادرستی هایی روبرو شوید که برطرف شده و سپس اصلاح می شوند.”

چند روز بعد ، در تاریخ 3 دسامبر ، اخلاق شناس مشهور هوش مصنوعی Timnit Gebru ، که یک نویسنده یک مطالعه بنیادی است که تعصبات در الگوریتم های تجاری شناسایی چهره را نشان می دهد ، اعلام کرد که Google آن را مجبور به ترک موقعیت خود به عنوان -سر شرکت اخلاقی تیم هوش مصنوعی. این شرکت با استناد به یک ایمیل داخلی که توسط Gebru ارسال شده و از عدم پیشرفت این شرکت در زمینه ابتکارات تنوع ، انصاف و شمول و تصمیم آن برای ارائه مقاله برای چاپ بدون اجازه شرکت شکایت می کند.

سند Gebru نگرانی هایی را در مورد توسعه مدل های بزرگ زبان مانند مدل هایی که تجارت جستجوی گوگل به آنها بستگی دارد ، ایجاد کرد. طبق بررسی مقاله منتشر نشده از MIT Technology Review ، گبرو و همكاران آن به انتشار كربن حاصل از توسعه مدل های عظیم ، پتانسیل گسترده آنها برای تعصب و خطری كه می توانند برای اهداف شنیع استفاده شوند ، اشاره می كنند.

راه اندازی Gebru به خوبی با شهرتی که گوگل به عنوان حامی تحقیقات اخلاقی با کیفیت عالی هوش مصنوعی کسب کرده است ، مطابقت ندارد. بخشی از این درخشش ناشی از استخدام دانشمندان منتقد مانند گبرو و ظاهراً دادن آزادی به آنها است تا هر طور که بخواهند منتشر کنند. (با این حال ، ادبیات دانشگاهی نشان می دهد که شرکتهای خصوصی اغلب می توانند حقوق کافی را به محققان بپردازند تا محدودیتهای توانایی انتشار آنها را بپذیرند.) ساخت و ساز س questionsالاتی را در مورد گزارش مکان غرق در پول شرکت ها ایجاد می کند.

مسئله این است که مکان های جایگزین زیادی در هوش مصنوعی وجود ندارد که بتوانند تحقیقات متمرکز بر مسئولیت پذیری را تأمین کنند. با توجه به هزینه های هنگفت محاسباتی ساخت مدل های هوش مصنوعی ، بسیاری از کارهای اصلی در این زمینه در دست تعداد کمی از شرکت ها و دانشگاه هایی است که توانایی تهیه آن را دارند.

وست گفت: “اگر ما بیش از حد به همان شركت هایی كه خسارت وارد می كنند اعتماد كنیم تا خسارت را حس كنیم ، این جای مناسبی نیست.” “اگر به آنها بستگی دارد ، آنها می توانند نحوه تنظیم دستور کار را انتخاب کنند. … آنها هنوز هم قدرت و نفوذ در زمین را به گونه ای اعمال می کنند که شاید به نفع عموم مردم نباشد. “




منبع: mojeshargh.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>