كيف يتم استخدام الذكاء الاصطناعي في دول الخليج؟ هذا هو السؤال الأبرز حاليًا بعد تزايد المخاوف المتعلقة بإساءة استخدام هذه التقنية الحديثة لانتهاك حقوق الإنسان والتجسس على المواطنين والتلاعب بهم.
حاليًا، تُستخدم تقنيات الذكاء الاصطناعي لنفس الأنواع من الأشياء الموجودة في البلدان الأخرى: على سبيل المثال، مثل روبوتات الدردشة على مواقع تجار التجزئة أو لتبسيط خدمات الدولة للطاقة والمياه، وتعزيز الخدمات المالية الرقمية مثل الخدمات المصرفية عبر الإنترنت أو تحليل أداء شركات مثل طيران الإمارات أو تقديم رؤى من بيانات الرعاية الصحية المحلية، في أواخر مايو/أيار، أصدرت الإمارات نسختها الخاصة من ChatGPT.
المخاوف التي تسيطر على نشطاء الحقوق الرقمية لا تتعلق بسيناريو الخيال العلمي حيث تقتلنا الروبوتات جميعًا، لكنهم قلقون بشأن أمن البيانات والمراقبة وتصفية المحتوى والنشر المستهدف للدعاية والدقة في تحليل الذكاء الاصطناعي والتحيز، فضلاً عن إمكانية “الاستخدام المزدوج” لبعض التقنيات المرتبطة بالذكاء الاصطناعي.
على سبيل المثال، تتمتع تقنية التعرف على الوجه المدعومة بالذكاء الاصطناعي بإمكانية الاستخدام المزدوج، للأغراض المدنية والعسكرية، من ناحية أخرى، من المفيد على Facebook العثور على أصدقائك، من ناحية أخرى، يمكن استخدامه لتحديد المتظاهرين في مظاهرة مناهضة للحكومة.
كما قال جيفري هينتون، رائد الذكاء الاصطناعي الذي يحظى بالاحترام والذي احتل عناوين الصحف الدولية عندما ترك وظيفته في Google مؤخرًا، لصحيفة The New York Times : “من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة السيئة من استخدامها الذكاء الاصطناعي لارتكاب انتهاكات ضد حقوق الإنسان”.
الأنظمة المستبدة وإساءة استخدام الذكاء الاصطناعي
ماذا يحدث عندما ينتهي الأمر بالذكاء الاصطناعي في أيدي الحكومات الاستبدادية، مثل تلك الموجودة في دول الخليج التي تنفق المليارات بالفعل لتطوير هذه التقنيات؟ قد يكون لهذه البلدان بعض مظاهر الديمقراطية، لكنها تقع تحت حكم عائلات ملكية لا تتسامح مع أي نوع من المعارضة.
في تصريحات خاصة لـ DW، قالت إيفيرنا ماكجوان، مديرة المكتب الأوروبي لمركز الديمقراطية والتكنولوجيا: “في البلدان التي تستهدف فيها السلطات بالفعل المدافعين عن حقوق الإنسان والصحفيين لممارستهم السلمية لحقوقهم، يمكن أن تكون آثار هذه التقنية أكثر تدميراً”.
في ملخص عام 2022 للقوانين التي تتعلق حاليًا بالذكاء الاصطناعي في الشرق الأوسط، أشار باحثون في شركة المحاماة متعددة الجنسيات كوفينجتون وبيرلينج إلى أنه لا يوجد تشريع بشأن الذكاء الاصطناعي في المنطقة حتى الآن، وأضافوا أن هذا ينطبق أيضًا على العديد من الولايات القضائية الأخرى.
قال ليوك موك، الباحث الأسترالي في الثقافات الرقمية، العام الماضي أن المبادئ الأخلاقية للذكاء الاصطناعي التي تدعي الدول الالتزام بها غير مجدية، وتفشل في التخفيف من الأضرار العرقية والاجتماعية والبيئية لتقنيات الذكاء الاصطناعي بأي معنى ذي معنى، وأضاف “جزء من السبب في ذلك هو عدم وجود أي قوانين تدعم المبادئ التوجيهية الأخلاقية، والنتيجة هي فجوة بين المبادئ السامية والممارسات التكنولوجية.”
من ناحيتها، خلصت أنجيلا مولر من شركة Algorithm Watch إلى أن “هذه الأنظمة تفتح طرقًا جديدة للانتهاك المحتمل لحقوق الأشخاص الأساسية من خلال مراقبتهم أو التلاعب بهم، من خلال منع وسائلهم من أن يكون لهم رأي والدفاع عن أنفسهم… إن الجمع بين التعتيم والمناطق الحساسة وهذه الآثار المحتملة يمثل إشكالية بشكل خاص في السياقات التي لا توجد فيها حماية موثوقة لحقوق الإنسان وسيادة القانون.”
للاطلاع على النص الأصلي من المصدر اضغط هنا
اضف تعليقا