تعد أجهزة الاستشعار البيئية منخفضة التكلفة بشكل متزايد إلى جانب الأدوات التحليلية المدعومة بالذكاء الاصطناعي بمثابة وعد بالتخطيط البيئي بشكل أسرع وأكثر عمقًا.
إن الحاجة إلى اتخاذ قرارات أفضل بشأن الطريقة التي نستخدم بها النظم البيئية والموارد الطبيعية أصبحت أكثر إلحاحًا الآن لأن التغييرات الموافقة المقترحة بموجب مشروع قانون الموافقات السريعة تتطلب تقييمات أسرع.
وكجزء من أبحاث ماثيو هنري، أستاذ مشارك في التخطيط، جامعة ماسي، في Kuaha Matahiko ، وهو مشروع مفتوح المصدر وتعاوني لجمع البيانات حول الأراضي والمياه، وجدوا رغبة حقيقية في التفاعل مع الذكاء الاصطناعي بين مجموعات iwi و hapū القبلية .
لقد رأت المنظمات البيئية التي تعاني من ضغوط كبيرة أن الذكاء الاصطناعي يمكن أن يساعد في دمج مجموعات البيانات البيئية المجزأة مع تحسين القدرة التحليلية بسرعة وبتكلفة زهيدة.
وبناءً على هذه الحاجة، طوَّر مشروع Kuaha Matahiko ذكاءً اصطناعيًا عمليًا، تم تدريبه على البيانات البيئية من أوتياروا، نيوزيلندا، وهذا يُظهِر نقطة تحول ناشئة حيث أصبح الذكاء الاصطناعي المصمم خصيصًا خيارًا واقعيًا لمجموعات الكايتياكي، حتى الصغيرة منها.
ولكن الحذر مطلوب، فقد أظهرت التجارب السابقة أن الأنظمة التي تعمل بالخوارزميات غالباً ما تحبسنا في مسارات تعيد إنتاج التفاوتات القائمة في جمع البيانات وتمنعنا من تخيل النتائج.
تحدث هذه المشاكل غالبًا بسبب مشكلتين مترابطتين: إرث جمع البيانات العشوائي والاعتقاد الخاطئ في كثير من الأحيان بأن حجم البيانات الأكبر يساوي دقة أفضل.
فخ الدقة
أولاً، تتطلب أنظمة الذكاء الاصطناعي المفيدة بيانات غنية بالسرعة والحجم، وقد حذر المفوض البرلماني للبيئة الحكومات المتعاقبة من أن نظام البيانات البيئية في نيوزيلندا مؤقت، وانتهازي، ويفتقر إلى الموارد الكافية .
تعكس قواعد البيانات البيئية الحالية إلى حد كبير أولويات العلوم الزراعية التي تقودها الدولة والجهود الأخيرة لمراقبة تأثيراتها البيئية، كما تعاني بياناتنا البيئية من الجهل المنهجي بثقافة الماوري .
مجموعات البيانات البيئية طويلة الأمد ذات قيمة كبيرة، لكنها غير مكتملة للغاية في تغطيتها للأماكن والمشاكل، ولا يمكننا العودة بالزمن إلى الوراء لإعادة جمع البيانات، إدراك الفجوات والتحيزات التي خلقها تاريخ من توليد البيانات غير المتكافئ والإقصائي أمر بالغ الأهمية لأن هذه البيانات (والافتراضات المضمنة) هي التي سيتم استخدامها لتدريب الذكاء الاصطناعي في المستقبل.
ثانيا، يعد الذكاء الاصطناعي باليقين والدقة، ولكن دراسة بحثية في الزراعة الدقيقة تصف المخاطر الناشئة عندما نخطئ بين الحجم الكبير وتفاصيل البيانات الضخمة والدقة العالية، إن الاعتقاد المبالغ فيه في دقة البيانات الضخمة يمكن أن يؤدي إلى تآكل الضوابط والتوازنات.
لقد أصبحت هذه المشكلة أكبر من أي وقت مضى مع تزايد غموض الخوارزميات، فمعظم الخوارزميات أصبحت الآن غير مفهومة.
وينبع هذا من التعقيد التقني وسوء فهم المستخدم والاستراتيجيات المتعمدة للمطورين، وهذا يعمينا عن مخاطر عدم الدقة.
عدم الانتباه إلى غموض الخوارزميات يعرضنا لخطر الوقوع في “فخ الدقة”، ويحدث هذا عندما يتحول الإيمان بدقة الذكاء الاصطناعي إلى قبول غير مشروط لدقة مخرجات الذكاء الاصطناعي.
وهذا يشكل خطراً بسبب القيمة السياسية والاجتماعية والقانونية التي نعطيها للأرقام باعتبارها تعبيرات موثوقة عن “حقائق ثابتة” موضوعية.
وتتزايد هذه المخاطر بسرعة عندما تُستخدم أنظمة الذكاء الاصطناعي للتنبؤ بالأحداث المستقبلية (وإدارة هذه الأحداث) استناداً إلى نماذج دقيقة ولكنها غير دقيقة، لا تستند إلى الملاحظات.
ولكن ماذا يحدث عندما تصبح مخرجات الذكاء الاصطناعي هي النسيج الأساسي للتقييم واتخاذ القرار؟ هل لدينا خيار عدم تصديقها على الإطلاق؟
تجنب “القفص الحديدي“
أحد الاحتمالات المستقبلية يكمن فيما أطلق عليه عالم الاجتماع الألماني ماكس فيبر “القفص الحديدي للعقلانية”، ففي هذا القفص تصبح المجتمعات حبيسة أنظمة عقلانية ودقيقة وفعّالة ولكنها في الوقت نفسه غير إنسانية وغير عادلة.
تجنب هذا المستقبل يتطلب العمل بشكل استباقي على إنشاء شراكات شاملة ومفهومة ومتنوعة في مجال الذكاء الاصطناعي، ولا يتعلق الأمر برفض العقلانية، بل بتخفيف نتائجها غير العقلانية.
يعتمد إطار حوكمة البيانات والذكاء الاصطناعي المتطور لدينا على مبادئ إمكانية العثور عليها والوصول إليها والتوافق بينها وإعادة استخدامها ( FAIR )، وهذه المبادئ مفيدة للغاية، كما أنها تتجاهل التاريخ الاجتماعي لجمع البيانات.
فشل تعداد السكان لعام 2018، هو مثال صارخ على ما يحدث عندما يتم تجاهل التفاوتات التاريخية، لا يمكننا إعادة صياغة البيانات البيئية التي لدينا.
لكن أنظمة الذكاء الاصطناعي الجديدة تحتاج إلى أن تكون على دراية بتأثيرات فجوات البيانات السابقة المضمنة في تصميمها، قد يعني هذا أيضًا تجاوز الوعي إلى إثراء البيانات بشكل نشط لمعالجة الثغرات.
توسيع النظرة العالمية للذكاء الاصطناعي
يجب أن تخدم البيانات والذكاء الاصطناعي الأهداف الإنسانية، تطالب حركات سيادة البيانات الأصلية بحق السكان الأصليين في امتلاك وإدارة البيانات المتعلقة بمجتمعاتهم ومواردهم وأراضيهم.
وقد ألهمت أطر العمل المعروفة باسم CARE ، والتي تعني المنفعة الجماعية والسلطة والمسؤولية والأخلاق.
تقدم هذه المنظمات نموذجًا لتعزيز علاقات البيانات التي تضع العلاقات الإنسانية المزدهرة في المقام الأول.
في أوتياروا نيوزيلندا، تأسست منظمة Te Kāhui Raraunga Māori في عام 2019 كهيئة مستقلة لتمكين الماوري من الوصول إلى بياناتهم الخاصة وجمعها واستخدامها. يعد نموذج حوكمة البيانات الخاص بها مثالاً على مبادئ CARE هذه في العمل.
الخطوة الأكبر إلى الأمام ستكون توسيع النظرة العالمية للذكاء الاصطناعي. إن خدمة الأهداف البشرية تعني الكشف عن الافتراضات والأولويات المضمنة في مختلف أشكال الذكاء الاصطناعي.
وهذا يعني بدوره فتح الباب أمام تطوير الذكاء الاصطناعي إلى ما هو أبعد مما يوصف بأنه وجهة نظر “غريبة” ــ غربية، متعلمة، صناعية، غنية، متقدمة ــ والتي تهيمن حاليا على هذا المجال.
نحن بحاجة إلى هذه الرؤية الجذرية للذكاء الاصطناعي، والتي يتم بناؤها عمداً من وجهات نظر عالمية متنوعة، لتجنب إغلاق القفص وإغلاق المستقبل.
