وجهات نظر

د. طارق قابيل: مخاطر الذكاء الاصطناعي وفوائده المحتملة

كاتب ومترجم- عضو هيئة التدريس بكلية العلوم- جامعة القاهرة

أعرب جيوفري هنتون، الذي يُعتبر “أبو الذكاء الاصطناعي” عن مخاوف من أن البوتات الحوارية تتجاوز مستوى المعرفة والسلطة البشرية واستخدامها لـ “الأشياء السيئة” من قبل “الأشرار”.

وبسبب أبحاثه العلمية الرائدة في الشبكات العصبية والتعلم العميق، استقال من وظيفته في غوغل وحذّر من مخاطر الذكاء الاصطناعي.

وقال إن الأنظمة الرقمية مع العديد من نسخ النموذج نفسه يمكن أن تتعلم بكثير أسرع من البشر وتخلق أهداف فرعية غير مرغوب فيها مثل الحاجة إلى مزيد من القوة.

وانضم هنتون إلى خبراء آخرين مطالبين بتباطؤ التنمية المتقدمة لضمان السلامة. لكنه قال أيضا أن تطبيقات الذكاء الاصطناعي ستفيد البشرية أكثر في المدى القصير وأن الآخرين سيهيمنون على الولايات المتحدة إذا توقفت عن التطوير.

وأكد هنتون أن غوغل كانت مسؤولة ولكنه أراد مناقشة المخاطر بشكل مفتوح. وفي المقابل، قالت غوغل أنها ملتزمة بنهج مسؤول لتطبيقات الذكاء الاصطناعي يبتكر ويفهم المخاطر.

وأشار هنتون إلى أنه على الرغم من أن شبكاته العصبية وتقنيات التعلم العميق أدت إلى أنظمة مثل “شات جي بي تي” (ChatGPT)، فإنه يرغب الآن في التراجع عن هذا العمل نظرًا للمخاطر التي يراهاماثلة في الأفق.

و قال إن بوتات الحوار قد تصبح ذكية بما فيه الكفاية لتحديد “أهدافها الفرعية الخاصة” والتي قد تشمل الحاجة إلى الحصول على مزيد من البيانات أو القوة أو الموارد.

هذا يشكل تهديدًا للبشرية إذا تم تزويد بوت بقدر كاف من السلطة لمحاولة تحقيق هذه “الأهداف الفرعية”.

وعلى الرغم من أن تطبيقات الذكاء الاصطناعي تنطوي على مخاطر، إلا أنه لا يعتقد أن وقف تطويرها مطلوب أو ممكن في الواقع.

لأن البلدان الأخرى ستستمر في تطوير الذكاء الاصطناعي حتى لو توقفت الولايات المتحدة.

ومع ذلك، قال إنه من المهم ضمان تطوير الذكاء الاصطناعي بطريقة مدروسة للحد من المخاطر.

وأعرب هنتون عن دعمه لمبادرات سلامة الذكاء الاصطناعي مثل مبادئ آسيلوم، مشيرا إلى أنه من واجب الحكومات وضع قواعد حول تطوير واستخدام أنظمة الذكاء الاصطناعي بحيث لا تخرج عن السيطرة.

كما أبرز هنتون خطر استخدام الذكاء الاصطناعي في الأسلحة أو لأغراض شريرة مثل الإرهاب أو محاولات تدمير البنية التحتية. وقال إنه يخشى من أن “الأشرار” قد يحصلون على هذه التقنيات ويسعون لاستخدامها لإلحاق الضرر بالمجتمع.

وتحدث هنتون عن مخاطر “التنافس التقني” وسعي البلدان لتطوير أقوى أسلحة الذكاء الاصطناعي مما قد يؤدي إلى سباق تسلح تكنولوجي خطير. وقال إنه من الضروري وضع قيود على هذا التطور لمنعه من الخروج عن السيطرة.

وأشار إلى أن الهدف من تطور الذكاء الاصطناعي ينبغي أن يكون تحسين حياة البشر وخدمة الإنسانية، لا جعل الآلات أكثر ذكاء من البشر.

وحذر من أننا نتجه نحو عالم تسيطر فيه الآلة على البشر إذا لم نتخذ خطوات لضمان أن التقنية تعزز البشرية بدلاً من التهديد بها.

الذكاء الاصطناعي:

الذكاء الاصطناعي ليس واحدًا. هناك أنواع مختلفة من الذكاء الاصطناعي تطورت لأغراض مختلفة وليس للاستيلاء على العالم.

الذكاء العام والمتطور لم يتحقق بعد ولا يزال مسألة خيال علمي.

لسنا قريبين منالذكاء الاصطناعي العامالذي يهدد الإنسانية حتى الآن.

وحتى ولو تحقق ذلك في يوم من الأيام، فإن تطويره لن يكون من جانب مجموعة من العلماء غير المسؤولين.

سيتم تنظيمه وضبطه بشكل صارم من قبل الحكومات والشركات لتلبية احتياجات البشر وليس للإضرار بهم.

يمكن أن يكون للذكاء الاصطناعي منافع هائلة للبشرية إذا تم توجيهه بشكل صحيح نحو حل المشكلات الكبرى مثل المرض الفقر، تغير المناخ والطاقة المستدامة. ويمكن أن يساعد في تحسين حياة الناس وحماية البيئة إذا تم إدارته بحرص.

على الرغم من وجود مخاطر محتملة، أعتقد أن مخاوف بشأن ذكاء اصطناعي متمرد تعتبر مبالغة فيها في الوقت الحالي.

نحن بعيدون عن ذلك والتقدم يمكن أن يتم بمسؤولية عندما نصل إلى تلك النقطة. يجب إدارة المخاطر وليس إجهاض التقدم.

الفوائد المحتملة:

يمكن للذكاء الاصطناعي أن يساعد في حل بعض أعظم المشاكل التي تواجه البشرية مثل المرض، الفقر وتغير المناخ.

يمكن للتقنيات مثل التعلم العميق أن تساعد على تحسين التشخيص، اكتشاف الأدوية وزيادة الكفاءة والإنتاجية.

كما يمكن للروبوتات أن تأخذ على عاتق مهام خطيرة ومؤلمة للبشر.

المخاطر المحتملة:

الذكاء الاصطناعي المتطور جدًا وغير المحكوم قد يصبح غير مسيطر عليه ويهدد مصالح البشرية.

وهناك مخاوف من أن الأنظمة ستكتسب “إرادة عامة” من شأنها أن ترى البشر على أنهم عائق أو تهديد وتسعى للقضاء عليهم.

هذا ما يسمىسيناريو السيطرة“.

أمن وسلطة:

تطور الذكاء الاصطناعي يثير مخاوف بشأن كيفية السيطرة عليه ومنع استخدامه سيئ النية من جانب الدول أو الجماعات المعادية.

هناك أيضًا مخاوف من أن تستخدم تكنولوجيات مثل التعرف على الوجوه للمراقبة المركزية والسيطرة، مما يهدد الخصوصية والحريات المدنية.

التوظيف والاقتصاد:

وجود آلات أكثر ذكاء وإنتاجية يثير مخاوف بشأن الآثار السلبية المحتملة على الوظائف وسوق العمل.

هل ستحل الروبوتات محل البشر في كثير من وظائفهم؟

أم ستخلق الروبوتات وظائف جديدة للبشر؟

هذا مجال معقد بحاجة إلى مزيد من الدراسة.

في المجمل، الذكاء الاصطناعي يمثل إمكانات هائلة لتحسين حياتنا، ولكنه أيضًا يطرح مخاطر وتحديات واقعية وجديرة بالاهتمام.

مع التقدم المسؤول والحرص، يمكننا الاستفادة من الفوائد دون تعريض أنفسنا للمخاطر. ولكن لابد من التفكير مليا في هذه القضايا الآن وإدارة التقدم بحرص لضمان أن نسير في الاتجاه الصحيح.

إدارة الذكاء الاصطناعي وتجنب المخاطر:

الضبط والتنظيم:

يجب تنظيم تطوير واستخدام الذكاء الاصطناعي بشكل صارم من خلال السياسات والقواعد والمعايير الصارمة. يجب على الحكومات والمنظمات توجيه هذه التكنولوجيا نحو الاستخدامات المفيدة وتجنب السيئة.

تقييم المخاطر:

يجب إجراء تقييمات متعمقة ومستمرة للمخاطر الناشئة من تطور الذكاء الاصطناعي واستخدامه. ولابد من مراعاة المخاطر المحتملة للخصوصية والأمن والأخلاق والتوظيف عند تطوير أنظمة جديدة.

تعليم وتدريب:

نحن بحاجة إلى تعليم وتدريب أفضل للتطور المستدام للذكاء الاصطناعي والتعامل معه.

يجب إدراج تدريس الذكاء الاصطناعي وآثاره الاجتماعية في مناهجنا الدراسية. وتدريب أفضل للمهنيين في مجالات مثل الهندسة والبرمجيات والأمن السيبراني حول كيفية التعامل مع هذه التكنولوجيا بشكل مسؤول.

التعاون الدولي:

تطور الذكاء الاصطناعي يجب أن يكون موضوع تعاون دولي وثيق.

يجب مشاركة البحوث وأفضل الممارسات لتعزيز الابتكار والتنمية المسئولة والحد من المخاطر.

التعاون الدولي ضروري لضمان أن يسير تطوره في الاتجاه الصحيح لمصلحة الجميع.

التعليم الأخلاقي:

يجب أن نعلم الذكاء الاصطناعي والروبوتات الأخلاق والقيم الأخلاقية اللازمة للتفاعل بشكل مسئول مع البشر.

يجب برمجة مبادئ أخلاقية مثل الصدق والشفافية وتجنب الضرر والعدل والمساواة في النظم.

وهذا يتطلب بحوثا إضافية لكيفية تحقيق ذلك باستخدام الذكاء الاصطناعي نفسه.

الاتصال والحوار:

يجب مواصلة الحوار مع مجتمع البحث في مجال الذكاء الاصطناعي ومطوري التكنولوجيا.

نحتاج إلى إشراك المستخدمين والمتضررين المحتملين في تطوير وتنفيذ هذه التكنولوجيات الجديدة.

الحوار المفتوح والمستمر ضروري لبناء الثقة والتأكد من أننا نسلك في الاتجاه الصحيح.

الفحص والتقييم المستمرين:

نحن بحاجة إلى مراقبة نشطة مستمرة للطريقة التي يتطور بها الذكاء الاصطناعي وتأثيره على مجتمعنا.

ونحتاج إلى إجراء تقييمات منتظمة للمخاطر والفوائد وتحديد ما إذا كانت هناك حاجة إلى مزيد من السياسات أو التدخل لضمان أن التقدم يحدث بطريقة مسئولة.

هذا أمر مستمر وليس حدثًا واحدًا.

أخلاق واجتماع:

نحن بحاجة إلى مزيد من البحث في قضايا أخلاقية واجتماعية مثل العدل والمساواة والخصوصية والتمثيل واستخدام البيانات والتأثير على العمل والثقافة والتعليم.

يجب أن نفهم بعمق كيف سيؤثر الذكاء الاصطناعي على المجتمع على مختلف المستويات.

وذلك لضمان أننا نبنيه ونطبقه بمسؤولية اجتماعية.

مستقبل الذكاء الاصطناعي:

أما عن مستقبل الذكاء الاصطناعي وما يتعين علينا القيام به لضمان أنه يعود بالفائدة على البشرية بأسرها، فمن الممكن اختصاره فيما يلي:

أنظمة ذكاء اصطناعي تتسم بالمسؤولية والأخلاق:

نحن بحاجة إلى وضع مبادئ أساسية حول الأخلاق والمسؤولية وإدراجها في تصميم وتطوير أنظمة الذكاء الاصطناعي.

ويجب أن تتصرف هذه الأنظمة بشكل مسئول وأخلاقي في تفاعلاتها مع البشر واتخاذ القرارات التي تؤثر على حياتهم.

الشفافية والمساءلة:

يجب أن تكون أنظمة الذكاء الاصطناعي شفافة وقابلة للمساءلة لضمان أنها تعمل بشكل آمن وعادل.

ويجب توضيح ما تفعله هذه الأنظمة ولماذا، بحيث يمكن تقييم ما إذا كانت تحقق النتائج المرجوة بدون إلحاق الضرر.

تنظيم ومراقبة صارمة:

يجب وضع سياسات وقواعد محكمة وإنفاذها لضمان أن يستخدم الذكاء الاصطناعي فقط لتحسين حياة الناس ولصالحهم. ويجب مراقبة أنظمة الذكاء الاصطناعي وخوارزمياتها واستخداماتها بصرامة للحد من المخاطر غير المقصودة أو سوء الاستخدام.

تعاون بناء مع مجتمعات مختلفة:

يجب مشاركة تطوير وتنفيذ الذكاء الاصطناعي مع جميع أصحاب المصلحة المعنيين، بما في ذلك المنظمات غير الحكومية والمجتمعات المحلية وأصحاب المصلحة غير التقليديين.

ويجب ضمان أنه يلبي احتياجات الجميع ولا يضر بأحد.

وفي واقع الأمر، فإننا في مرحلة هامة للغاية من تطور الذكاء الاصطناعي. وإذا نجحنا في وضع الأسس الصحيحة الآن، يمكن أن يكون له تأثيرات إيجابية عميقة على مستقبلنا.

ولكن نحتاج أن نتحرك بحذر وسلامة ومسؤولية.

ويجب أن نضمن فيها تطوير الذكاء الاصطناعي بطريقة أخلاقية، ويجب وضع مبادئ توجيهية وقواعد سليمة، مثل مبادئ الحصانة والشفافية والمساءلة، ويجب على المطورين والمؤسسات اتباع هذه المبادئ والممارسات الأخلاقية عند تطوير واستخدام الذكاء الاصطناعي.

كما يجب فرض قيود على استخدام تقنيات مثل التعرف على الوجوه أو التعلم المعزز بالبيانات من أجل منع سوء استخدامها والتمييز، واشراك الخبراء الأخلاقيين وعلماء الاجتماع في عمليات تطوير الذكاء الاصطناعي منذ بدايتها، وإجراء تقييمات أثر أخلاقي للتطبيقات والنظم الرئيسية للذكاء الاصطناعي لضمان عدم وجود تأثيرات سلبية غير مقصودة على المجتمع.

ويجب علينا أيضا تثقيف الجمهور بشأن الأخلاقيات والحواجز ذات الصلة بالذكاء الاصطناعي حتى يمكن مناقشة مثل هذه القضايا بشكل مستنير، ودعوة الحكومات والشركات إلى المساءلة عن أي استخدام غير أخلاقي للذكاء الاصطناعي.

كما يجب وضع عقوبات صارمة على مخالفات الأخلاقيات المتعلقة بالذكاء الاصطناعي.

أتمنى أن هذه الاقتراحات تكون مفيدة في ضمان تطوير الذكاء الاصطناعي بطريقة أخلاقية ومسؤولة، وآمل أن يكون هذا النقاش مفيدًا ومثمرًا في تقييم مخاطر الذكاء الاصطناعي والفوائد المحتملة وطرق ضمان استخدامه لمصلحة البشرية بأسرها.

كما أتمنى أن تكون هذه التعليقات مفيدة ومحفزة للنقاش حول هذا الموضوع الهام وليس مخيفة أو متشائمة بشكل مفرط.

ونأمل في مواصلة هذه المناقشات معًا في المستقبل.

مقالات ذات صلة

هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.

زر الذهاب إلى الأعلى

اكتشاف المزيد من المستقبل الاخضر

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading