الذكاء الاصطناعي .. تفوق تكنولوجي أم فقاعة مضاربة؟

الذكاء الاصطناعي .. تفوق تكنولوجي أم فقاعة مضاربة؟

وسط الإثارة المتزايدة بشأن الذكاء الاصطناعي التوليدي، هناك أيضا مخاوف متزايدة بشأن مساهمته المحتملة في تآكل الحريات المدنية. يؤكد تقارب وكالات استخبارات الدولة ورأسمالية المراقبة التهديد الذي يشكله الذكاء الاصطناعي على مستقبل الديمقراطية. وفقا لما يرصده روبرت سكيدلسكي، عضو مجلس اللوردات البريطاني وأستاذ الاقتصاد السياسي في جامعة وارويك. فمع ضخ المستثمرين مليارات الدولارات في الشركات الناشئة ذات الصلة بالذكاء الاصطناعي، بدا جنون الذكاء الاصطناعي التوليدي وكأنه فقاعة مضاربة شبيهة بهوس التوليب الهولندي في ثلاثينيات القرن الـ16، وفقاعة البحر الجنوبي في أوائل القرن الـ18. ومثل تلك الأحداث، يبدو أن طفرة الذكاء الاصطناعي تتجه نحو انهيار حتمي. بدلا من إنشاء أصول جديدة، فإنها تهدد بترك جبال من الديون فقط.
يغذي ضجيج الذكاء الاصطناعي اليوم الاعتقاد بأن النماذج اللغوية الكبيرة مثل GPT-4 التي تم إصدارها حديثا من OpenAI ستكون قادرة على إنتاج محتوى لا يمكن تمييزه فعليا عن المخرجات التي ينتجها البشر. يراهن المستثمرون على أن أنظمة الذكاء الاصطناعي التوليدية المتقدمة ستنشئ نصا وموسيقى وصورا ومقاطع فيديو دون عناء بأي أسلوب يمكن تصوره استجابة لمطالبات المستخدم البسيطة.
وسط الحماس المتزايد للذكاء الاصطناعي التوليدي، ومع ذلك، هناك مخاوف متزايدة بشأن تأثيره المحتمل في سوق العمل. ويقدر تقرير حديث صادر عن بنك جولدمان ساكس عن الآثار الاقتصادية " الكبيرة المحتملة " للذكاء الاصطناعي أن ما يصل إلى 300 مليون وظيفة معرضة لخطر التشغيل الآلي، بما في ذلك عديد من الوظائف الماهرة وذوي الياقات البيضاء.
من المؤكد أن عديدا من الوعود والمخاطر المرتبطة بصعود الذكاء الاصطناعي لا تزال تلوح في الأفق. لم نتمكن بعد من تطوير آلات تمتلك مستوى الوعي الذاتي والقدرة على اتخاذ قرارات مستنيرة تتماشى مع فهم معظم الناس للذكاء. لهذا السبب يدعو عديد من التقنيين إلى دمج "القواعد الأخلاقية" في أنظمة الذكاء الاصطناعي قبل أن تتجاوز القدرات البشرية.
لكن الخطر الحقيقي لا يكمن في أن الذكاء الاصطناعي التوليدي سيصبح مستقلا كما يعتقد كثير من قادة التكنولوجيا، ولكن بدلا من ذلك سيتم استخدامه لتقويض استقلالية الإنسان. تمثل أنظمة الذكاء الاصطناعي "الضيقة" و"ذات الأغراض العامة" التي يمكنها أداء المهام بكفاءة أكبر من البشر، فرصة رائعة للحكومات والشركات التي تسعى إلى ممارسة سيطرة أكبر على السلوك البشري.
كما أشارت شوشانا زوبوف في كتابها الصادر 2019 بعنوان "عصر رأسمالية المراقبة''، يمكن أن يؤدي تطور التقنيات الرقمية إلى ظهور "نظام اقتصادي جديد يدعي أن التجربة البشرية مادة خام مجانية للممارسات التجارية الخفية للتنبؤ والمبيعات. " وتلاحظ أن العلاقة التكافلية المتزايدة بين مراقبة الحكومة والقطاع الخاص هي جزئيا نتيجة جهاز الأمن القومي "الذي حفزته هجمات 11 أيلول (سبتمبر)" ويهدف إلى رعاية التقنيات الناشئة والاستيلاء عليها لاكتساب "معرفة كاملة" حول سلوك الناس وحياتهم الشخصية.
وتعد Palantir، شركة تحليل البيانات التي أسسها المستثمر الملياردير بيتر ثيل، مثالا على ذلك. وبحسب تقارير منح بلانتير عقودا مربحة لتطوير أنظمة ذكاء اصطناعي مصممة للاستخدام العسكري. في المقابل، توفر شركة بلانتير خدمات استخباراتية لحكومة الولايات المتحدة ووكالات تجسس أخرى حول العالم.
في "رحلة إلى لابوتا"، الجزء الثالث من رحلات جاليفر لجوناثان سويفت، يصادف الكابتن جاليفر جزيرة عائمة يسكنها علماء وفلاسفة ابتكروا طرقا بارعة لاكتشاف المؤامرات. تتضمن إحدى هذه الطرق التدقيق في "النظام الغذائي لجميع الأشخاص المشتبه بهم". بينما يركز جهاز مراقبة الدولة الحديث على التحقيق في رسائل البريد الإلكتروني بدلا من الوظائف الجسدية، فإن له هدفا مشابها، كشف المؤامرات ضد "النظام العام" أو "الأمن القومي" من خلال اختراق أعماق عقول الناس.
لكن مدى قدرة الحكومات على التجسس على مواطنيها لا يعتمد فقط على التقنيات المتاحة ولكن أيضا على الضوابط والتوازنات التي يوفرها النظام السياسي. لهذا السبب، تمكنت الصين، التي يركز نظامها بالكامل على الحفاظ على الاستقرار السياسي ودعم "القيم الاشتراكية"، من إنشاء أكثر أنظمة مراقبة الدولة الإلكترونية انتشارا في العالم. كما أنه يساعد على تفسير سبب حرص الصين على وضع نفسها كرائد عالمي في تنظيم الذكاء الاصطناعي التوليدي.
في المقابل، يتركز نهج الاتحاد الأوروبي في التنظيم حول حقوق الإنسان الأساسية، مثل الحق في الكرامة الشخصية والخصوصية والتحرر من التمييز وحرية التعبير. تؤكد الأطر التنظيمية الخاصة به على الخصوصية وحماية المستهلك وسلامة المنتجات والاعتدال في المحتوى. بينما تعتمد الولايات المتحدة على المنافسة لحماية مصالح المستهلكين، فإن قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي من المتوقع أن يتم الانتهاء منه في وقت لاحق من هذا العام، يحظر صراحة استخدام البيانات التي ينشئها المستخدم من أجل "التقييم الاجتماعي".
يتناقض نهج الغرب "المرتكز على الإنسان" لتنظيم الذكاء الاصطناعي، والذي يؤكد حماية الأفراد من الأذى، بشكل حاد مع النموذج الصيني. ولكن هناك خطرا واضحا وقائما من أن الاثنين سيتقاربان في نهاية المطاف. هذا التهديد الذي يلوح في الأفق مدفوع بالصراع المتأصل بين التزام الغرب بالحقوق الفردية وضرورات الأمن القومي، والتي تميل إلى أن تكون لها الأسبقية على الحريات المدنية في أوقات التوترات الجيوسياسية المتصاعدة. فالنسخة الحالية من قانون الذكاء الاصطناعي، على سبيل المثال، تمنح المفوضية الأوروبية سلطة حظر ممارسات مثل الشرطة التنبؤية، ولكن مع استثناءات مختلفة للأمن القومي، والدفاع، والاستخدامات العسكرية.
وسط المنافسة الشرسة على التفوق التكنولوجي، تشكل قدرة الحكومات على تطوير ونشر التقنيات المتطفلة تهديدا ليس فقط للشركات والأنظمة السياسية ولكن لدول بأكملها. تقف هذه الديناميكية الخبيثة في تناقض صارخ مع التوقعات المتفائلة بأن الذكاء الاصطناعي سيحقق "مجموعة واسعة من الفوائد الاقتصادية والاجتماعية عبر مجموعة كاملة من الصناعات والأنشطة الاجتماعية".
لسوء الحظ، فإن التآكل التدريجي للسلطات التعويضية والقيود الدستورية على عمل الحكومة داخل الديمقراطيات الليبرالية الغربية يصب في مصلحة الأنظمة الشمولية. كما لاحظ جورج أورويل بصراحة، فإن حالة الحرب الدائمة، أو حتى الوهم بها، توجد بيئة مثالية لظهور الواقع المرير التكنولوجي.

الأكثر قراءة