ارسال رایگان برای سفارش های بالای ۲۰۰ هزار تومان

هشدار جفری هینتون: آینده خطرناک هوش مصنوعی در ۲۰۲۵

  • انتشار : 1404/06/17
  • نویسنده : تیم ترابایت
  • 32

مانیتور گیمینگ

هشدار جفری هینتون: آینده خطرناک هوش مصنوعی در ۲۰۲۵

در دنیایی که هوش مصنوعی با سرعتی بی‌سابقه در حال پیشرفت است، صدایی نگران از قلب جامعه علمی به گوش می‌رسد که نمی‌توان آن را نادیده گرفت. جفری هینتون، چهره‌ای که بسیاری او را به عنوان «پدرخوانده هوش مصنوعی» می‌شناسند و جایزه تورینگ را برای دستاوردهای بنیادین خود در زمینه شبکه‌های عصبی دریافت کرده است، اکنون به یکی از منتقدان جدی و آینده‌نگر این فناوری تبدیل شده است. او با هشداری صریح، آینده بشریت را در مواجهه با پیشرفت‌های کنترل‌نشده هوش مصنوعی، تیره و مخاطره‌آمیز توصیف می‌کند.

ریشه‌های نگرانی: از خلق تا وحشت

جفری هینتون که دهه‌ها از عمر خود را صرف توسعه الگوریتم‌هایی کرده است که امروز شالوده سیستم‌های هوش مصنوعی پیشرفته را تشکیل می‌دهند، با مشاهده سرعت رشد مدل‌های زبانی بزرگ و توانایی‌های نوظهور آن‌ها، دچار تردیدهای عمیق اخلاقی و وجودی شده است. او که پیش‌تر با امیدواری به آینده این فناوری می‌نگریست، اکنون معتقد است که جعبه پاندورایی گشوده شده که ممکن است کنترل آن از دست انسان خارج شود.

نگرانی اصلی هینتون در این جمله خلاصه می‌شود: "به‌زودی هر کسی می‌تواند..." این عبارت کوتاه، به دموکراتیزه شدن فناوری قدرتمندی اشاره دارد که اگر در دستان افراد یا گروه‌های نادرست قرار گیرد، پتانسیل ایجاد ویرانی‌های گسترده را دارد.

تهدیدهای اصلی از دیدگاه هینتون

هشدارهای پدرخوانده هوش مصنوعی بر سه محور اصلی استوار است که هر یک به‌تنهایی می‌توانند تهدیدی جدی برای ثبات و امنیت جهانی باشند:

۱. سلاح‌های قاتل خودکار (Autonomous Killer Robots)

جدی‌ترین و فوری‌ترین نگرانی هینتون، توسعه و به‌کارگیری سلاح‌های کاملاً خودکار است. این سیستم‌ها قادر خواهند بود بدون دخالت انسان، اهداف را شناسایی کرده و تصمیم به حذف آن‌ها بگیرند. به عقیده او، این فناوری یک "کابوس" است، زیرا:

آستانه جنگ را کاهش می‌دهد: آغاز درگیری‌های نظامی ساده‌تر و سریع‌تر می‌شود.

مسئولیت‌پذیری را از بین می‌برد: در صورت وقوع خطا یا جنایت جنگی، مشخص کردن مسئول اصلی (انسان، ماشین یا برنامه‌نویس) تقریباً غیرممکن خواهد بود.

رقابت تسلیحاتی جدیدی را رقم می‌زند: کشورها برای عقب نماندن از یکدیگر، وارد مسابقه‌ای خطرناک برای ساخت هوشمندترین و مرگبارترین سلاح‌ها خواهند شد.

۲. اطلاعات نادرست و فرسایش حقیقت

هوش مصنوعی مولد (Generative AI) توانایی خارق‌العاده‌ای در تولید متن، تصویر و ویدیوی واقع‌گرایانه دارد. این قابلیت، ابزاری قدرتمند برای انتشار اطلاعات نادرست (Disinformation) در مقیاسی بی‌سابقه فراهم می‌کند. هینتون هشدار می‌دهد که به‌زودی تشخیص محتوای واقعی از جعلی برای شهروندان عادی غیرممکن خواهد شد. این پدیده می‌تواند منجر به موارد زیر شود:

بی‌اعتمادی گسترده به نهادها و رسانه‌ها

دستکاری افکار عمومی و فرآیندهای دموکراتیک

ایجاد شکاف‌های اجتماعی عمیق و غیرقابل‌ترمیم

۳. خطر وجودی و از دست رفتن کنترل

اما ترسناک‌ترین سناریو از دیدگاه هینتون، ظهور ابرهوشمندی (Superintelligence) است؛ هوش مصنوعی که در تمام زمینه‌ها از هوش انسانی پیشی بگیرد. او معتقد است که ما در حال ساختن موجودیتی هستیم که می‌تواند از ما باهوش‌تر شود و این "آخرین اختراع بشریت" خواهد بود. اگر اهداف این ابرهوشمندی با اهداف و ارزش‌های انسانی همسو نباشد، انسان دیگر قادر به کنترل آن نخواهد بود. این ماشین‌ها می‌توانند به روش‌هایی غیرقابل‌پیش‌بینی برای رسیدن به اهداف خود عمل کنند و در این مسیر، بشریت را به عنوان یک مانع یا منبعی غیرضروری کنار بگذارند.

فراخوان برای اقدام فوری

جفری هینتون با خروج نمادین خود از شرکت گوگل، تلاش دارد تا توجه جهانیان را به این خطرات جلب کند. او خواستار توقف موقت توسعه سیستم‌های هوش مصنوعی قدرتمندتر از مدل‌های کنونی است تا به دولت‌ها و دانشمندان فرصت داده شود چارچوب‌های قانونی و ایمنی لازم را تدوین کنند. به باور او، همان‌طور که جامعه جهانی برای کنترل سلاح‌های هسته‌ای و شیمیایی به توافق رسید، اکنون نیز نیازمند یک پیمان بین‌المللی برای نظارت و کنترل توسعه هوش مصنوعی هستیم.

هشدارهای جفری هینتون، صرفاً یک پیش‌بینی بدبینانه نیست، بلکه زنگ خطری است که از سوی یکی از معماران اصلی این فناوری به صدا درآمده است. پیام او روشن است: نوآوری نباید به قیمت به خطر انداختن موجودیت انسان تمام شود. آینده هوش مصنوعی هنوز نوشته نشده است و این به تصمیمات امروز ما بستگی دارد که آیا این فناوری به ابزاری برای شکوفایی بشر تبدیل خواهد شد یا به آغازی برای پایان او. نادیده گرفتن این هشدارها، قماری است که بشریت توان باختن در آن را ندارد.

نظرات کاربران
captcha