الذكاء الاصطناعي والمناخ: فرصة لتحقيق العدالة أم خطر لتكريس التهميش؟
بين البيئة والتكنولوجيا.. كيف نضمن أن لا يتجاهل الذكاء الاصطناعي الفقراء؟
تغلغل الذكاء الاصطناعي في جميع مناحي الحياة، بما في ذلك العمل المناخي. فمن التنبؤ بالطقس القاسي إلى تحسين أنظمة الطاقة، باتت تقنيات الذكاء الاصطناعي تُستخدم على نطاق واسع لتعزيز فعالية جهود مواجهة تغيّر المناخ.
غير أن هناك حاجة متزايدة لضمان ألّا تؤدي هذه التكنولوجيا الناشئة إلى تفاقم أوجه عدم المساواة القائمة أو تهميش الفئات الضعيفة.
فالعدالة المناخية تقوم على المعاملة المنصفة والمشاركة الفعلية لجميع الناس في عالم يواجه آثار تغيّر المناخ، بصرف النظر عن خلفياتهم أو دخولهم أو أعراقهم أو نوعهم الاجتماعي أو مناطقهم الجغرافية.
ويجب أن تكون العدالة المناخية مبدأً أساسيًا في تصميم وتطبيق تقنيات الذكاء الاصطناعي المُستخدمة من أجل الاستدامة.
هذا النقاش أصبح ضرورة مُلحّة، إذ تتقاطع قوتان تحوليّتان: أزمة المناخ، وثورة الذكاء الاصطناعي المتسارعة.
فقد أشار تقرير صادر عن وكالة حماية البيئة الأمريكية عام 2021 إلى أن الفئات الاجتماعية الضعيفة – المُعرّفة على أساس العِرق أو الدخل أو السن – أكثر عرضة للتأثر بأضرار تغيّر المناخ مثل موجات الحر، وتردي جودة الهواء، والفيضانات.
وفي الوقت ذاته، تزداد المخاوف من أن يؤدي استخدام الذكاء الاصطناعي في خدمات عامة أو بنى تحتية أو إدارة مخاطر دون مراعاة مبادئ العدالة، إلى تعميق الإقصاء القائم بدلًا من معالجته.
وليس الأمر نظريًا فحسب؛ بل إن الذكاء الاصطناعي يُستخدم بالفعل في سياقات بيئية حساسة مثل الإغاثة في الكوارث، ومراقبة التلوث، وإدارة الطاقة.
وإذا ما تم تدريبه على بيانات متحيّزة، أو جرى تصميمه من دون إشراك المجتمعات المهمشة، فقد يعيد إنتاج نفس الفجوات التي تسعى العدالة المناخية إلى ردمها.
كيف نُعزز العدالة المناخية عند نشر تقنيات الذكاء الاصطناعي؟
1- التصميم العادل ومعالجة التحيّز في الذكاء الاصطناعي البيئي
لا يمكن لأي نظام ذكاء اصطناعي أن يكون أكثر عدلًا من البيانات والافتراضات التي بُني عليها.
في مجال العمل المناخي، قد يظهر التحيز الخوارزمي بشكل خفي لكنه مؤذٍ.
فمثلًا، إذا استخدم نموذج ذكاء اصطناعي شكاوى سابقة عبر الإنترنت لتحديد أماكن وضع أجهزة استشعار جودة الهواء، فإنه قد يتجاهل مجتمعات فقيرة أو ريفية لا تمتلك وصولًا للإنترنت، مما يؤدي إلى ضعف في المراقبة والتمويل في تلك المناطق.
هذا لا يُعد خللًا تقنيًا فحسب، بل هو مسألة عدالة. إذ يجب تصميم الذكاء الاصطناعي لضمان توزيع منافع التكنولوجيا بشكل منصف.
ويجب أن يراعي الفجوات في الوصول إلى التكنولوجيا والموارد، وأن يُبنى على بيانات شاملة لا تستبعد من هم خارج الفضاء الرقمي.
كما أن الشفافية أمرٌ حاسم؛ إذ يجب أن يكون في مقدور المجتمعات فهم كيفية اتخاذ القرارات، والاعتراض عليها، والمشاركة في تصميم الأدوات التي تؤثر على حياتها.
ويشمل ذلك إتاحة نماذج الذكاء الاصطناعي للتدقيق العلني، ودمج آليات التصميم التشاركي، وإجراء تقييمات أثر خوارزمي، مثل تقييم الأثر البيئي، لقياس الأبعاد الاجتماعية والبيئية للتكنولوجيا.
2- تمكين المجتمعات المُهمّشة من خلال سيادة البيانات
البيانات تعني سلطة، والتاريخ يُظهر أن هذه السلطة لم توزَّع بعدالة. تمتلك المجتمعات الأصلية والمهمّشة معارف بيئية عميقة يُمكن أن تعزز من قدرات الذكاء الاصطناعي في مواجهة تغيّر المناخ.
لكنها غالبًا ما تُستبعد من عمليات صنع القرار، وتُعامَل كمجرد مصادر بيانات.
فكر في هذا المثال: إذا أُطلقت مبادرة مدعومة بالذكاء الاصطناعي لمراقبة إزالة الغابات، من خلال صور الأقمار الصناعية وأجهزة الاستشعار، من دون التشاور مع السكان الأصليين، فقد تكون جهود الحفظ غير فعالة أو حتى مضللة.
فمثلًا، قد يُصنّف الذكاء الاصطناعي منطقة ما بأنها “في خطر” بسبب تغيّر لون الأشجار الموسمي، بينما يكون هذا التغيّر جزءًا من دورة حصاد مستدامة ينفذها السكان الأصليون، ولا يستطيع النظام تفسيرها دون المعارف المحلية.
لذلك، هناك حاجة إلى أطر سياسية تُعزز العدالة المناخية على المستوى المحلي، وتمنح المجتمعات الأصلية السيادة على بياناتها، إلى جانب التدريب الكافي لفهم آليات الذكاء الاصطناعي وتوجيهها بما يخدم مصالحهم.
وقد أشار تقرير الأمم المتحدة الصادر عام 2024 حول حوكمة الذكاء الاصطناعي إلى ضرورة وضع أطر شاملة تحمي حقوق الإنسان، وتضمن أن تخدم التكنولوجيا جميع المجتمعات، لا أن تُراقبها أو تُقصيها.
ومثال ذلك، مبادرات الطائرات المسيّرة بقيادة المجتمعات في جزر المحيط الهادئ، التي ترصد تآكل السواحل وتقدّم حلولًا محلية للتكيف المناخي، أو مبادرات السيادة الرقمية للسكان الأصليين في كندا التي تُوظف النمذجة البيئية لخدمة مجتمعاتهم وقيمهم الثقافية.
3- بناء آليات للمساءلة وأطر تنظيمية عادلة
لا يمكن تحقيق ذكاء اصطناعي أخلاقي من دون حوكمة أخلاقية تُحاسب الجهات العامة والخاصة عند وقوع أضرار من قرارات مدفوعة بالخوارزميات.
التعاون الدولي، وتقييمات الأثر البيئي للخوارزميات، والرقابة المستقلة، كلها ضرورية عند استخدام الذكاء الاصطناعي لتحقيق العدالة المناخية.
وبجانب ذلك، لا بد من توفير آليات للتظلُّم والتعويض عند وقوع ضرر غير متناسب.
فمثلًا، إذا استُخدم الذكاء الاصطناعي لتحسين مسارات جمع النفايات، ونتج عن ذلك تقليل الخدمات في أحياء فقيرة، يجب أن يكون لسكان تلك الأحياء الحق في الاعتراض والمطالبة بإعادة النظر في الخوارزميات.
كما يجب أن تكون هناك معايير شفافية إلزامية، وتقييمات أثر دورية قبل وبعد تنفيذ مثل هذه الأنظمة.
وقد دعت الهيئة الاستشارية للأمم المتحدة المعنية بالذكاء الاصطناعي إلى إنشاء هيكل عالمي شامل لحوكمة التكنولوجيا، قائم على المرونة وحماية الحقوق، وهي مبادئ غاية في الأهمية في سياقات المناخ التي ترتبط بقرارات مصيرية.
ولعل الأهم من كل ذلك، أن تكون هذه الأطر قابلة للتنفيذ، إذ لا تكفي التوصيات الطوعية عندما تكون الأرواح والبيئة على المحك.





