خبير دولي: تهديد انقراض البشر “مبالغ فيه” لكن الخطر الأكبر بناء أنظمة ذكاء اصطناعي ليس لدينا سيطرة جيدة عليها
حث القادة السياسيين على إيجاد "التوازن الصحيح" بين السلامة والابتكار وحذر من ترك السلطة للشركات الكبرى
منذ أن ظهرت قصيدة ChatGPT على الساحة منذ ستة أشهر، أعرب الخبير جاري ماركوس عن حذره من التطور الفائق السرعة للذكاء الاصطناعي واعتماده.
لكن ضد المتشائمين المروعين للذكاء الاصطناعي، قال الأستاذ الفخري بجامعة نيويورك في مقابلة أجريت معه مؤخرا لوكالة فرانس برس، إن التهديدات الوجودية للتكنولوجيا قد تكون “مبالغا فيها” في الوقت الحالي.
قال ماركوس: “لست مهتمًا شخصيًا بخطر الانقراض، على الأقل في الوقت الحالي، لأن السيناريوهات ليست ملموسة”، مشيفا أن “المشكلة الأكثر عمومية التي أشعر بالقلق بشأنها … هي أننا نبني أنظمة ذكاء اصطناعي ليس لدينا سيطرة جيدة عليها، وأعتقد أن هذا يشكل الكثير من المخاطر، (لكن) ربما ليس وجوديًا بالمعنى الحرفي.”
قبل ظهور ChatGPT بوقت طويل، صمم ماركوس أول برنامج ذكاء اصطناعي له في المدرسة الثانوية – برنامج لترجمة اللاتينية إلى الإنجليزية – وبعد سنوات من دراسة علم نفس الطفل، أسس شركة Geometric Intelligence ، وهي شركة للتعلم الآلي حصلت عليها أوبر لاحقًا.

لماذا الذكاء الاصطناعي؟
في مارس، أثار قلقه من أن OpenAI منشئ ChatGPT كان يطلق أحدث وأقوى نموذج ذكاء اصطناعي مع Microsoft ، وقع Marcus خطابًا مفتوحًا مع أكثر من 1000 شخص بما في ذلك Elon Musk يدعو إلى توقف عالمي في تطوير الذكاء الاصطناعي.
لكنه لم يوقع الأسبوع الماضي على البيان الأكثر إيجازًا لقادة الأعمال والمتخصصين – بما في ذلك رئيس أوبن إيه آي سام التمان – والذي تسبب في حدوث ضجة.
أصر الموقعون على أن قادة العالم يجب أن يعملوا لتقليل “خطر الانقراض” من تكنولوجيا الذكاء الاصطناعي.
وقال البيان المؤلف من سطر واحد إن معالجة مخاطر الذكاء الاصطناعي يجب أن تكون “أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
وقد شمل الموقعون أولئك الذين يبنون أنظمة بهدف تحقيق الذكاء الاصطناعي “العام” ، وهي تقنية من شأنها أن تجعل القدرات المعرفية على قدم المساواة مع قدرات البشر.
قال ماركوس: “إذا كنت تعتقد حقًا أن هناك خطرًا وجوديًا ، فلماذا تعمل على هذا على الإطلاق؟ هذا سؤال عادل نسأله”.
وبدلاً من التركيز على سيناريوهات بعيدة المنال حيث لا ينجو أحد ، يجب على المجتمع أن يلفت الانتباه إلى حيث تكمن الأخطار الحقيقية ، كما توقع ماركوس.
“قد يحاول الناس التلاعب بالأسواق باستخدام الذكاء الاصطناعي للتسبب في جميع أنواع الفوضى ، وبعد ذلك ، على سبيل المثال ، نلوم الروس ونقول ، ‘انظروا إلى ما فعلوه ببلدنا’ عندما لم يكن الروس مشاركين في الواقع ،” هو أكمل.
“(يمكن) أن يكون لديك هذا التصعيد الذي ينتهي به المطاف في حرب نووية أو شيء من هذا القبيل. لذلك أعتقد أن هناك سيناريوهات يكون فيها الأمر خطيرًا للغاية. الانقراض؟ لا أعرف.”
تهديد للديمقراطية
على المدى القصير ، فإن خبير علم النفس قلق بشأن الديمقراطية.
ينتج برنامج الذكاء الاصطناعي التوليدي صوراً مزيفة بشكل متزايد وقريباً مقاطع فيديو بتكلفة قليلة، ونتيجة لذلك، “سيفوز في الانتخابات أشخاص أفضل في نشر المعلومات المضللة ، وقد يغير هؤلاء الأشخاص القواعد ويجعلون من الصعب حقًا المضي قدمًا في الديمقراطية”.
علاوة على ذلك، “الديمقراطية مبنية على وجود معلومات معقولة واتخاذ قرارات جيدة، إذا لم يكن أحد يعرف ماذا يؤمن، فكيف يمكنك المضي قدمًا في الديمقراطية؟، لكن مؤلف كتاب “Rebooting AI” لا يعتقد أننا يجب أن نتخلى عن الأمل، وما زلنا نرى “الكثير من الصعود”.
لسنا مستعدين
قال ماركوس، إن هناك بالتأكيد فرصة أن الذكاء الاصطناعي الذي لم يخترع بعد يمكن أن “يساعد في العلم والطب ورعاية المسنين”، “لكن على المدى القصير ، أشعر أننا لسنا مستعدين، سيكون هناك بعض الضرر على طول الطريق ونحتاج حقًا إلى رفع مستوى لعبتنا، وعلينا اكتشاف قواعد تنظيمية جادة”.
في جلسة استماع لمجلس الشيوخ الأمريكي في مايو ، بجانب ألتمان من شركة أوبن إيه آي، دافع ماركوس عن إنشاء وكالة وطنية أو دولية مسؤولة عن حوكمة الذكاء الاصطناعي.
الفكرة مدعومة أيضًا من قبل ألتمان ، الذي عاد لتوه من جولة أوروبية، حيث حث القادة السياسيين على إيجاد “التوازن الصحيح” بين السلامة والابتكار.
لكن احذر من ترك السلطة للشركات، وحذر ماركوس، من أن “الأشهر العديدة الماضية كانت بمثابة تذكير حقيقي بأن الشركات الكبرى التي تحتل الصدارة هنا ليست بالضرورة مهتمة ببقيتنا”.





