همه چیز درباره جفری هینتون دانشمندی که ۱۰ سال برای گوگل کار کرد
چرا پدرخوانده هوش مصنوعی از آینده این تکنولوژی میترسد؟
جفری هینتون، پدرخوانده هوش مصنوعی هفته گذشته گوگل را ترک کرد تا درباره هوش مصنوعی و خطرات آن برای آینده بشریت راحتتر اظهار نظر کند. به عقیده او هوش مصنوعی اکنون صدها برابر از آدمها بیشتر میداند و ممکن است از نوع انسان پیشی بگیرد.
به گزارش تجارتنیوز ، جفری هینتون 75 ساله، روانشناس شناختی و دانشمند رایانه بریتانیایی-کانادایی که به پدر هوش مصنوعی (AI) معروف است، با ابراز نگرانی از اینکه تحقیقات هوش مصنوعی در مسیر اشتباهی پیش میرود، هفته پیش گوگل را ترک کرد. او که کارهای پیشگامانهای در زمینه شبکههای عصبی مصنوعی انجام داده، اکنون احساس میکند که با وجود هوش مصنوعی خطری در انتظار بشریت است.
هینتون در مصاحبهای با نیویورک تایمز گفت که نگران پتانسیل هوش مصنوعی برای از بین بردن مشاغل و ایجاد دنیایی است که در آن بسیاری «دیگر نتوانند بدانند چه چیزی حقیقت دارد.» درواقع، هینتون به دنبال ظهور ChatGPT و دیگر چتباتها و مطرح شدن انتقادات و نگرانیها نسبت به آینده هوش مصنوعی استعفا داد. در حالی که بیش از 10 سال در کمپانی گوگل و روی پروژههای هوش مصنوعی تحقیق کرده بود.
ماجرای ورود جفری هینتون به هوش مصنوعی
جفری هینتون در سال 1947 در ویمبلدون لندن متولد شد. ورود جفری به این مسیر، بسیار تحت تاثیر خانوادهاش بوده است. چرا که پدربزرگش جورج بول بود. ریاضیدانی که اختراع جبر بولی پایههای رایانههای مدرن را پایهریزی کرد.
همچنین، پسر عموی او جوآن هینتون، یک فیزیکدان هستهای بود و روی پروژه منهتن کار میکرد که اولین سلاح هستهای جهان را در طول جنگ جهانی دوم تولید کرد. در نهایت پدر جفری، تیلور یک محقق بود که به عضویت انجمن سلطنتی، قدیمیترین آکادمی علمی جهان درآمد.
جفری مدرک کارشناسی خود را در روانشناسی تجربی از کمبریج در سال 1970 و دکترای خود را در هوش مصنوعی از ادینبورگ در سال 1978 دریافت کرد. مرحله فوق دکترا را در دانشگاه ساسکس و دانشگاه کالیفرنیا سن دیگو گذراند و پنج سال بهعنوان عضو هیئت علمی در بخش علوم کامپیوتر دانشگاه کارنگی ملون مشغول به کار بود. سپس عضو مؤسسه تحقیقات پیشرفته کانادا شد و به دپارتمان علوم کامپیوتر دانشگاه تورنتو نقل مکان کرد.
از سال 1998 تا 2001، واحد علوم اعصاب محاسباتی گتسبی را در کالج دانشگاه لندن راهاندازی کرد و سپس به دانشگاه تورنتو بازگشت. از سال 2004 تا 2013، مدیر برنامه «محاسبات عصبی و ادراک تطبیقی» بود که توسط مؤسسه تحقیقات پیشرفته کانادا تأمین مالی شده بود.
در سال 2013، استارتاپ DNN Research که جفری هینتون آن را تأسیس کرده بود، توسط گوگل خریداری شد. این زمانی بود که گروه پروفسور جفری هینتون در دانشگاه تورنتو سیستمی را مبتنی بر یادگیری عمیق و شبکههای عصبی کانولوشنال توسعه دادند که در نهایت با اختلاف زیادی برنده مسابقه بینایی کامپیوتر ImageNet شد. تا ده سال بعد از آن، هینتون زمان خود را بین تحقیقات دانشگاهی و کار خود در گوگل تقسیم کرده بود.
جفری هینتون به دلیل انجام تحقیقات و اقدامات گستردهای که در زمینه توسعه شبکههای عصبی مصنوعی کرد، امروزه به پدرخوانده هوش مصنوعی شناخته میشود.
اما حالا هینتون متوجه شده است که غولهای بزرگ فناوری برای کسب سود، روی توسعه فناوریهای مبتنی بر هوش مصنوعی رقابت میکنند که میتواند آسیب جدی به بشریت وارد کند. پدرخوانده هوش مصنوعی گوگل را ترک کرده است، زیرا میخواهد در مورد خطرات هوش مصنوعی آزادانه صحبت کند.
علت نگرانی دانشمندان درباره هوش مصنوعی
این اولین بار نیست که دانشمندی در مورد اثرات بد هوش مصنوعی هشدار میدهد. در ژانویه سال 2015، استیون هاوکینگ، ایلان ماسک و چندین تن از محققان این حوزه، نیز در این مورد ابراز نگرانی کردند. همچنین در ماه مارس سال جاری میلادی، بسیاری از دانشمندانی که روی هوش مصنوعی کار میکنند، طی نامهای سرگشاده خواستار توقف آزمایشها بر روی مدلهای جدیدتر هوش مصنوعی شدند.
برخی نیز احتمال مسابقه تسلیحاتی هوش مصنوعی نظامی را دادهاند و سازمان ملل متحد باید تلاشهایی را برای جلوگیری از توسعه سیستمهای تسلیحات خودمختار مرگبار (LAWS، سلاحهای مبتنی بر هوش مصنوعی) فراتر از کنترل معنادار انسانی انجام دهد. در این نامه ذکر شده بود که بهخلاف تسلیحات هستهای، ساخت این سلاحها دشوار نیست.
با این حال نگرانی کنونی در مورد ابزارهایی مانند ChatGPT است. انواع مختلف هوش مصنوعی مولد میتواند به گسترش اطلاعات غلط کمک کند که در نهایت آسیبهای جبرانناپذیری به بار خواهد آورد.
همچنین، محققان مدتهاست متوجه شدهاند که جذب و بهکارگیری دانش جدید در شبکههای عصبی مصنوعی بسیار بیشتر از افراد است، زیرا آموزش آنها به انرژی و دادههای بسیار زیادی نیاز دارد.
اما هینتون استدلال میکند که دیگر اینطور نیست. چراکه سیستمهایی مانند GPT-4 پس از آموزش صحیح توسط محققان، میتوانند خیلی سریع چیزهای جدید یاد بگیرند. این امر هینتون را به این نتیجه رسانده که سیستمهای هوش مصنوعی ممکن است از انسانها پیشی بگیرند.
در ماههای اخیر نیز مشاهده شده است که سازندگان هوش مصنوعی در تلاشاند که به هر نحوی در مسابقه هوش مصنوعی برنده شوند. اما توسعه هوش مصنوعی به هر قیمتی و بدون برنامهریزی دقیق میتواند باعث سرکشی ابزارها شود که احتمالاً حتی سازندگان آنها نیز به سختی میتوانند جلوی سرکش شدنشان را بگیرند.
هینتون در نگرانیهای خود تنها نیست
هینتون در نگرانیهای خود تنها نیست. اندکی پس از اینکه OpenAI جدیدترین مدل هوش مصنوعی خود را به نام GPT-4 در ماه مارس منتشر کرد، بیش از هزار محقق و رهبر جهان فناوری، نامهای را امضا کردند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی شدند.
هشدارها درباره هوش مصنوعی به جایی رسید که در مارس 2023، سام آلتمن، مدیر عامل OpenAI در یک مصاحبه تلویزیونی به خطرات ناشی از قدرت و خطرات مدلهای زبانی برای جامعه اذعان کرد.
او گفته بود که توانایی تولید خودکار متن، تصویر یا کد میتواند برای راهاندازی کمپینهای اطلاعات نادرست یا حملات سایبری مورد سوءاستفاده قرار گیرد.
هینتون در آخرین اظهارات خود درباره GPT-4، آخرین مدل هوش مصنوعی از OpenAI گفته است که صدها برابر بیشتر از هر انسان دیگری میداند. به همین دلیل است که در ذهن افرادی مانند پروفسور جفری هینتون نسبت به هوش مصنوعی مولد ترس وجود دارد.
همچنین جالب اینجاست که OpenAI جزئیات فنی را در مورد آخرین مدل زبان GPT-4 خود مخفی نگه داشته است. در حالی که برای غولهای فناوری شفافیت بسیار مهم است، اما OpenAI تنها به دلیل منافع تجاری از افشای جزئیات سر بازمیزند.
نظرات