انفجار في الذكاء .. عندما تصنع الآلات غيرها بنفسها تصبح البشرية مهددة بالزوال
تكثر الأسئلة في شأن مدى دقة مقولة أن الذكاء الاصطناعي يهدد البشرية بـ "الفناء"، بحسب تنبيهات صدرت عن خبراء ورجال أعمال في هذا القطاع المزدهر، فهل من صدقية لهذا السيناريو الكارثي الذي لا يزال، لو صح فعلا، يلوح في الأفق البعيد؟
- "نظرية مشبك الورق"
يبدأ الكابوس، المستوحى من عدد لا يحصى من أفلام الخيال العلمي، عندما تتفوق الآلة بقدراتها على البشر وتخرج عن نطاق السيطرة.
وقال الباحث الكندي يوشوا بنجيو، أحد عرابي التعلم الآلي، في تصريحات أدلى بها أخيرا "منذ اللحظة التي ستكون لدينا آلات مصممة لكي تستمر، سنواجه مشاكل".
وبحسب متغير تخيله الفيلسوف السويدي نيك بوستروم، ستأتي اللحظة الحاسمة عندما تعرف الآلات كيف تصنع آلات أخرى بنفسها، ما يتسبب في "انفجار في الذكاء".
وفق نظريته التي سُميت "نظرية مشبك الورق"، إذا كان للذكاء الاصطناعي على سبيل المثال هدف نهائي يتمثل في تحسين إنتاج اكسسوار القرطاسية هذا، فسينتهي به الأمر بتغطية "الأرض أولا ثم التمدد على أنحاء أكبر من الكون، بمشابك ورقية".
نيك بوستروم شخصية مثيرة للجدل، بعد أن أكد أن البشرية يمكن أن تكون محاكاة حاسوبية، كما دعم نظريات وُضعت في خانة تحسين النسل. وقد اضطُر أخيرا إلى الاعتذار عن رسالة عنصرية بعث بها في تسعينات القرن الماضي وعادت إلى الظهور أخيرا.
ومع ذلك، فإن رؤيته حول مخاطر الذكاء الاصطناعي لا تزال مؤثرة للغاية، وقد ألهمت كلا من رئيس شركتي تيسلا وسبايس إكس الملياردير إيلون ماسك، والفيزيائي ستيفن هوكينغ الذي توفي في عام 2018.
- "الروبوتات ليست شريرة"
صورة المقاتل الآلي ذي العينين الحمراوين من فيلم "ترمينايتر" ("Terminator")، والذي أرسله ذكاء اصطناعي مستقبلي لوضع حد لكل مقاومة بشرية، طبعت اللاوعي الجماعي بصورة كبيرة.
لكن وفق خبراء حملة "أوقفوا الروبوتات القاتلة" ("Stop Killer Robots")، فإن هذا ليس الشكل الذي ستسود به الأسلحة المستقلة في السنوات المقبلة، وفق ما كتبوا في تقرير صادر عام 2021.
وتطمئن اختصاصية الروبوتات كيرستين دوتنهان، من جامعة واترلو في كندا، في مقابلة مع وكالة فرانس برس، بأن "الذكاء الاصطناعي لن يمنح الآلات الرغبة في قتل البشر".
وتقول "الروبوتات ليست شريرة"، مقرة في الوقت عينه بأن مطوريها يمكن أن يبرمجوها لإلحاق الأذى.
- أسلحة كيميائية
السيناريو الأقل وضوحا يتضمن استخدام الذكاء الاصطناعي لإنتاج سموم أو فيروسات جديدة بهدف نشرها في جميع أنحاء العالم.
وقد أجرت مجموعة من العلماء الذين استخدموا الذكاء الاصطناعي لاكتشاف عقاقير جديدة، تجربة عدّلوا فيها بحوثهم بهدف تطوير جزيئات ضارة.
في أقل من ست ساعات، تمكنوا من إنتاج 40 ألف عامل يُحتمل أن يكون ساما، وفق مقال نُشر في مجلة "نيتشر ماشين إنتلجنس".
وقالت خبيرة الذكاء الاصطناعي في مدرسة هيرتي في برلين جوانا برايسون إنه باستخدام هذه التقنيات، قد يجدُ شخص ما أخيرا طريقة لنشر فيروسات أو سموم مثل الجمرة الخبيثة بشكل أسرع.
وقالت لوكالة فرانس برس "لكنه ليس تهديدا وجوديا، بل فقط سلاح رهيب".
- "فناء الجنس البشري"
في أفلام نهاية العالم، تحدثُ الكارثة فجأة وفي كل مكان دفعة واحدة. ولكن ماذا لو اختفت البشرية تدريجيا واستُبدلت بالآلات؟
يتوقع الفيلسوف هو برايس في شريط فيديو ترويجي نشره مركز دراسة المخاطر الوجودية في جامعة كامبريدج، أنه "في أسوأ الأحوال، يمكن أن يموت جنسنا البشري من دون خليفة لنا".
ومع ذلك، هناك "احتمالات أقل سوداوية"، يمكن فيها للبشر المعززين بالتكنولوجيا المتقدمة البقاء على قيد الحياة. ويضيف برايس "الأنواع البيولوجية البحتة تنتهي بالانقراض".
في عام 2014، قال ستيفن هوكينغ إن جنسنا البشري سيعجز يوما عن منافسة الآلات. وأوضح لهيئة "بي بي سي" البريطانية أن هذا من شأنه أن "يمهد لفناء الجنس البشري".
أما جيفري هينتون، الباحث الذي يحاول إنشاء آلات تشبه الدماغ البشري لحساب مجموعة جوجل، فتحدث أخيرا بعبارات مماثلة عن "ذكاء خارق" يتفوق على البشر.
وأكد على قناة "بي بي اس" الأمريكية أن من الممكن أن "تكون الإنسانية مجرد مرحلة عابرة في تطور الذكاء".