- انتشار : 1404/06/17
- نویسنده : تیم ترابایت
- 32
هشدار جفری هینتون: آینده خطرناک هوش مصنوعی در ۲۰۲۵
در دنیایی که هوش مصنوعی با سرعتی بیسابقه در حال پیشرفت است، صدایی نگران از قلب جامعه علمی به گوش میرسد که نمیتوان آن را نادیده گرفت. جفری هینتون، چهرهای که بسیاری او را به عنوان «پدرخوانده هوش مصنوعی» میشناسند و جایزه تورینگ را برای دستاوردهای بنیادین خود در زمینه شبکههای عصبی دریافت کرده است، اکنون به یکی از منتقدان جدی و آیندهنگر این فناوری تبدیل شده است. او با هشداری صریح، آینده بشریت را در مواجهه با پیشرفتهای کنترلنشده هوش مصنوعی، تیره و مخاطرهآمیز توصیف میکند.
ریشههای نگرانی: از خلق تا وحشت
جفری هینتون که دههها از عمر خود را صرف توسعه الگوریتمهایی کرده است که امروز شالوده سیستمهای هوش مصنوعی پیشرفته را تشکیل میدهند، با مشاهده سرعت رشد مدلهای زبانی بزرگ و تواناییهای نوظهور آنها، دچار تردیدهای عمیق اخلاقی و وجودی شده است. او که پیشتر با امیدواری به آینده این فناوری مینگریست، اکنون معتقد است که جعبه پاندورایی گشوده شده که ممکن است کنترل آن از دست انسان خارج شود.
نگرانی اصلی هینتون در این جمله خلاصه میشود: "بهزودی هر کسی میتواند..." این عبارت کوتاه، به دموکراتیزه شدن فناوری قدرتمندی اشاره دارد که اگر در دستان افراد یا گروههای نادرست قرار گیرد، پتانسیل ایجاد ویرانیهای گسترده را دارد.
تهدیدهای اصلی از دیدگاه هینتون
هشدارهای پدرخوانده هوش مصنوعی بر سه محور اصلی استوار است که هر یک بهتنهایی میتوانند تهدیدی جدی برای ثبات و امنیت جهانی باشند:
۱. سلاحهای قاتل خودکار (Autonomous Killer Robots)
جدیترین و فوریترین نگرانی هینتون، توسعه و بهکارگیری سلاحهای کاملاً خودکار است. این سیستمها قادر خواهند بود بدون دخالت انسان، اهداف را شناسایی کرده و تصمیم به حذف آنها بگیرند. به عقیده او، این فناوری یک "کابوس" است، زیرا:
آستانه جنگ را کاهش میدهد: آغاز درگیریهای نظامی سادهتر و سریعتر میشود.
مسئولیتپذیری را از بین میبرد: در صورت وقوع خطا یا جنایت جنگی، مشخص کردن مسئول اصلی (انسان، ماشین یا برنامهنویس) تقریباً غیرممکن خواهد بود.
رقابت تسلیحاتی جدیدی را رقم میزند: کشورها برای عقب نماندن از یکدیگر، وارد مسابقهای خطرناک برای ساخت هوشمندترین و مرگبارترین سلاحها خواهند شد.
۲. اطلاعات نادرست و فرسایش حقیقت
هوش مصنوعی مولد (Generative AI) توانایی خارقالعادهای در تولید متن، تصویر و ویدیوی واقعگرایانه دارد. این قابلیت، ابزاری قدرتمند برای انتشار اطلاعات نادرست (Disinformation) در مقیاسی بیسابقه فراهم میکند. هینتون هشدار میدهد که بهزودی تشخیص محتوای واقعی از جعلی برای شهروندان عادی غیرممکن خواهد شد. این پدیده میتواند منجر به موارد زیر شود:
بیاعتمادی گسترده به نهادها و رسانهها
دستکاری افکار عمومی و فرآیندهای دموکراتیک
ایجاد شکافهای اجتماعی عمیق و غیرقابلترمیم
۳. خطر وجودی و از دست رفتن کنترل
اما ترسناکترین سناریو از دیدگاه هینتون، ظهور ابرهوشمندی (Superintelligence) است؛ هوش مصنوعی که در تمام زمینهها از هوش انسانی پیشی بگیرد. او معتقد است که ما در حال ساختن موجودیتی هستیم که میتواند از ما باهوشتر شود و این "آخرین اختراع بشریت" خواهد بود. اگر اهداف این ابرهوشمندی با اهداف و ارزشهای انسانی همسو نباشد، انسان دیگر قادر به کنترل آن نخواهد بود. این ماشینها میتوانند به روشهایی غیرقابلپیشبینی برای رسیدن به اهداف خود عمل کنند و در این مسیر، بشریت را به عنوان یک مانع یا منبعی غیرضروری کنار بگذارند.
فراخوان برای اقدام فوری
جفری هینتون با خروج نمادین خود از شرکت گوگل، تلاش دارد تا توجه جهانیان را به این خطرات جلب کند. او خواستار توقف موقت توسعه سیستمهای هوش مصنوعی قدرتمندتر از مدلهای کنونی است تا به دولتها و دانشمندان فرصت داده شود چارچوبهای قانونی و ایمنی لازم را تدوین کنند. به باور او، همانطور که جامعه جهانی برای کنترل سلاحهای هستهای و شیمیایی به توافق رسید، اکنون نیز نیازمند یک پیمان بینالمللی برای نظارت و کنترل توسعه هوش مصنوعی هستیم.
هشدارهای جفری هینتون، صرفاً یک پیشبینی بدبینانه نیست، بلکه زنگ خطری است که از سوی یکی از معماران اصلی این فناوری به صدا درآمده است. پیام او روشن است: نوآوری نباید به قیمت به خطر انداختن موجودیت انسان تمام شود. آینده هوش مصنوعی هنوز نوشته نشده است و این به تصمیمات امروز ما بستگی دارد که آیا این فناوری به ابزاری برای شکوفایی بشر تبدیل خواهد شد یا به آغازی برای پایان او. نادیده گرفتن این هشدارها، قماری است که بشریت توان باختن در آن را ندارد.