دليل تركيا
دليل الشركات - أخبار تركيا - سياحة وسفر - فرص عمل - العلاج والتجميل

كيف يهدد الذكاء الاصطناعي خصوصيتك؟

إن قدرت الذكاء الاصطناعي يمكن أن تصل إلى حد "التنبؤ بما يمكن أن يفعله الشخص "

233

كيف يهدد الذكاء الاصطناعي خصوصيتك؟

في يوم ما قد تمر من أحد مطارات العالم، المسافة بين بوابة وأخرى قد تستغرق 15 دقيقة. في هذا الوقت القصير أنت تستمتع بالنظر يمنة ويسرى، لكن خصوصيتك قد تكون اخترقت، وأنت لا تعلم.


ببساطة كاميرا تعمل بالذكاء الاصطناعي، هي تراك، وأنت لا تراها. تسلط عدستها على وجهك، وفي ثوان ستحدد هويتك.


يكفي من هذه الكاميرا نظرة واحدة إلى وجهك، لتحدد المسافة بين العينين، والأبعاد بين الجبهة والذقن، وبين الأنف والفم، وعمق محجر العين، وشكل عظام الوجنة، ومحيط الشفاه والأذنين”. وتحدد من أنت.


إنها ” بصمة الوجه”، وهي من الذكاء الاصطناعي الذي بات كثيرون يخشون من تبعاته على خصوصيتنا وحقوقنا نحن البشر.

يقول خبير تحدث لموقع “الحرة” إن قدرت الذكاء الاصطناعي يمكن أن تصل إلى حد “التنبؤ بما يمكن أن يفعله الشخص “.

والأمر لا يقف عند هذا الحد، فهذه التكنولوجيا المعقدة والمتقدمة قادرة على “تتبع حياة الأفراد والدخول بأدق تفاصيلهم اليومية من دون الحاجة للتدخل البشري”. ويختم الخبير حديثه بوصف ما يجري بـ “الأمر المرعب إذا استخدمت هذه التقنيات بطريقة خاطئة”.

في هذه القصة شرح مفصل للتهديدات التي يمكن أن يشكلها الذكاء الاصطناعي على خصوصيتك، وعلى حقوق الإنسان التي يجب أن تكون محمية بأنظمة وقوانين تنظم قطاع التكنولوجيا المتقدمة كي لا تضر أدواتها الذكية شديدة التعقيد مجتمعاتنا البشرية.


إنذارات

منذ سنوات يطلق مسؤولون سياسيون وخبراء أمميون، إنذارات من مخاطر الذكاء الاصطناعي على حقوق الإنسان، والتي وصفها البعض بأنها قد تكون “كارثية” في بعض الآحيان.

حاليا، يؤثر الذكاء الاصطناعي على الحياة بجميع مستوياتها، ويتم تطويعه لخدمة الإنسان، وفي الوقت ذاته، يستغله البعض في انتهاكات حقوق الإنسان، إذ أصبح لزاما حماية الأفراد من تطبيقات وأنظمة “الذكاء الاصطناعي غير الآمنة”، وهو ما دعا إليه وزير الخارجية الأميركي، أنتوني بلينكن خلال حديثه في “قمة الديمقراطية” التي استضافتها واشنطن أواخر مارس.

وحذر بلينكن من “المخاطر التي تأتي مع الإنترنت المفتوح”، مشيرا إلى أن “التكنولوجيا تعمق أحيانا عدم المساواة في مجتمعاتنا”.

الرئيس الأميركي، جو بايدن، أعلن خلال افتتاح القمة ذاتها عن مبادرة جديدة لدعم الديمقراطية تركز على “تطويع التكنولوجيا لدعم القيم والمؤسسات الديمقراطية” في مواجهة “الاستبداد الرقمي”.

المفوض السامي لحقوق الإنسان في الأمم المتحدة، فولكر تورك، حذر في فبراير الماضي، من أن التقدم الذي أحرز مؤخرا في مجال الذكاء الاصطناعي يمثل خطرا بالغا على حقوق الإنسان، داعيا إلى وضع “محاذير فعالة”.

وفي سبتمبر 2021، حذرت مفوضة الأمم المتحدة السامية لحقوق الإنسان السابقة، ميشيل باشليت، من أن تكنولوجيا الذكاء الاصطناعي قد تحمل “آثار سلبية كارثية إذا ما تم استخدامها من دون إيلاء اعتبار كاف لكيفية تأثيرها على حقوق الإنسان”.


كيف يهدد الذكاء الاصطناعي خصوصية الناس؟


دول تستخدم الذكاء الاصطناعي في تتبع مواطنيها.


مفوضية الأمم المتحدة السامية لحقوق الإنسان “أصدرت العديد من التقارير المرتبطة بالخصوصية في العصر الرقمي”، والتي ترافقت مع تصريحات المفوضين حول مخاطر “الذكاء الاصطناعي” على حقوق الإنسان، بحسب ما أكد المكتب الإعلامي للمفوضية في تصريحات لموقع “الحرة”.

وأشارت المفوضية إلى أن “الذكاء الاصطناعي والمخاوف المتعلقة به تعتبر من القضايا الهامة التي تشهد تطورات متلاحقة”.

والذكاء الاصطناعي، رغم أنه “يشكل قوة لنشر الخير، لمساعدة المجتمعات على التغلب على بعض التحديات البارزة في عصرنا، إلا أن بعض تطبيقاته كارثية على حقوق الإنسان”،  بحسب المفوضية.

وتؤثر خوارزميات “التصنيف وأتمتة عملية اتخاذ القرارات وغيرها من تكنولوجيات التعلم الآلي الأخرى على حق الأشخاص في الخصوصية والحقوق الأخرى، بما في ذلك الحقوق في الصحة والتعليم وحرية التنقل وحرية التجمع السلمي وتكوين الجمعيات وحرية التعبير”، بحسب تقرير أصدرته المفوضية في أواخر 2021.

ويؤكد التقرير أن أنظمة الذكاء الاصطناعي أصبحت “تحدد من يحصل على الخدمات العامة، ومن يتمتع بفرصة الحصول على وظيفة، كما تؤثر بالطبع على نوع المعلومات التي يراها الناس ويمكنهم مشاركتها عبر الإنترنت”.

ويوضح التقرير كيفية اعتماد أنظمة الذكاء الاصطناعي على مجموعات كبيرة من البيانات مثل “معلومات حول الأفراد، يتم جمعها ومشاركتها ودمجها وتحليلها بطرق متنوعة ومبهمة في أغلب الأحيان”.


خمسة تهديدات



أنظمة التعرف على الوجه تسهل لبعض السلطات التجسس على الأفراد.
 

أستاذ الذكاء الاصطناعي، أشرف النجار، حدد في حديثه لموقع “الحرة”، مجموعة الممارسات التي تجعل من أنظمة وتطبيقات الذكاء الاصطناعي “خطرا وتهديدا” على خصوصية الناس وحقوقهم:


التحيز

قد يتضمن الذكاء الاصطناعي تحيزا غير مقصود نتيجة للبيانات المستخدمة في تدريب النماذج. هذا التحيز قد يعزز التمييز ضد بعض الفئات الضعيفة في المجتمع ويزيد من عدم المساواة.


المراقبة

يمكن استخدام تقنيات الذكاء الاصطناعي لإجراء المراقبة الشاملة، وانتهاك الخصوصية، هذا قد يقلل من حرية التعبير والتجمع، ويمكن أن يؤدي إلى قمع المعارضة والنشاط السياسي.


المعلومات المضللة

يمكن استخدام الذكاء الاصطناعي في تطوير “البروباغندا” و”الأخبار الزائفة” والمحتوى المضلل، مما يهدد مصداقية المعلومات ويشجع الانقسام والغموض بين المجتمعات.


غياب العدالة

قد يؤدي استخدام الذكاء الاصطناعي عند تطبيق القانون والنظام إلى تطبيق غير عادل مما يؤدي إلى تفضيل بعض الجماعات على حساب الآخرين، ويعرض حقوق الإنسان للخطر.


البطالة

يمكن أن يؤدي تزايد الاعتماد على الذكاء الاصطناعي لأتمتة بعض الوظائف ما قد يرفع من معدلات البطالة، ويفرض واقعا من عدم المساواة الاقتصادية، مما يؤثر سلبا في الاستقرار الاجتماعي والسياسي للمجتمعات.


سلاح ذو حدين



مخاوف من تآكل الخط الفاصل بين الحقيقة والخيال

“سلاح ذو حدين”، هكذا وصف خبير التكنولوجيا، سامر المبيض، الذكاء الاصطناعي، مؤكدا أنه مثل ما له من قدرات على خدمة الإنسان، إلا أن البعض قد يوجه هذه القدرات لاختراق الخصوصية  وانتهاك حقوق الإنسان.

وقال المبيض، وهو رئيس تنفيذي لشركة “فرهات روبوتيكس” المتخصصة في تصنيع روبوتات تعمل بالذكاء الاصطناعي، في حديث لموقع “الحرة”، إن “التطورات الأخيرة في الذكاء الاصطناعي، تمنح قدرات تحليلية هائلة لصناع القرار، بما قد يحسن من واقع حقوق الإنسان، ويعزز من حماية الخصوصية والشفافية، بما يعزز مبادئ الديمقراطية مستقبلا”.

وأوضح أن استخدام أحدث التكنولوجيا لم يعد حكرا على “الأغنياء والأثرياء”، فكل شخص لديه نقطة وصول للإنترنت لديه ما يشبه “منظومة متكاملة من خدمات التعليم والمستشارين الماليين والأطباء، والتي تقدم مجانا في كثير من الآحيان”.

واستدرك المبيض قوله بأنه “مع ذلك، نظرا لقوة التكنولوجيا حاليا، يمكن استخدامها بطريقة معاكسة”، إذ قد تستخدم لإيجاد “انقسامات اجتماعية، وتوسيع الفجوة بين الطبقات المختلفة، والتأثير على الرأي العام من خلال معلومات زائفة تؤثر على مسار إنتخابات أو استطلاعات للرأي”.

وأضاف أن بعض تقنيات الذكاء الاصطناعي قد يقتصر الوصول لها عن طريق “حكومات أو شركات معينة” تستخدمها في استهداف خصوصية وحقوق الأفراد أو المجموعات المختلفة.


أنظمة تميزية وقدرات هائلة

تكنولوجيا التعرف على الوجه

ويقول الأكاديمي النجار إن “أنظمة الذكاء الاصطناعي قد تكون متحيزة وتنتهك خصوصية الأفراد”، لكن هذا لا يعني أن “التكنولوجيا بحد ذاتها متحيزة”، بل أن “توجيهها والنماذج التي تعتمد عليها موجهة بطريقة متعمدة لتكون بهذا الشكل”، ولهذا تفضي مخرجاتها إلى ممارسات “معيبة أو خاطئة”.

ويشرح تقرير المفوضية الأممية أن البيانات المستخدمة لإثراء أنظمة الذكاء الاصطناعي قد يتم “توجيهها بشكل معيب يولد ممارسات تمييزية.. لا تمت بصلة بالموضوع المطروح” ناهيك عن أن “تخزين البيانات لأمد طويل قد يعني استغلالها في المستقبل بطرق غير معروفة بعد”.

ويشير إلى حالات تسببت في معاملة الأشخاص “معاملة غير عادلة بسبب الذكاء الاصطناعي، مثل حرمانهم من تعويضات الضمان الاجتماعي بسبب بيانات معيبة أو القبض عليهم بسبب خلل في أنظمة التعرف على الوجه”.

ويقول خبير التقنية المبيض إن استغلال الذكاء الاصطناعي في الاستخدام الخاطئ “ليس حكرا على الحكومات والأنظمة السياسية، إذ قد تطوعه شركات تجارية أو بعض الأفراد في انتهاك الخصوصية من أجل تحقيق أرباحا طائلة منه”.

وزاد أن “القدرة على تحليل كميات هائلة من البيانات” هي الميزة الأكبر للذكاء الاصطناعي التي يستهدفها البعض في الممارسات الخاطئة، فهي تسهل لهم “اتخاذ قرارات سريعة بناء على معلومات إحصائية”، وعلى سبيل المثال يمكن إعادة توجيه رسائل معينة للمجتمعات من أجل التأثير في موضوع يهم الرأي العام، وما يسهل هذا الأمر أن الجميع الآن يعتمد على الإنترنت في أخذ المعلومات منه.


التنبؤ بما يمكن أن يفعله الشخص

وإلى جانب الميزة السابقة، يتهم الذكاء الاصطناعي بانتهاكات ترتبط بالخصوصية، بحسب المبيض، وقال “سيكون من السهل على جهة ما تتبع وتحليل الاتجاهات والأنماط في البيانات المتاحة عبر الإنترنت وشبكات التواصل الاجتماعي أو حتى باختراق الأجهزة التقنية المختلفة”، والتي قد تكشف عن نقاط ضعف يمكن استخدامها لتحقيق أهداف “تجارية أو سياسية أو غيرها”.

صهيب الغازي، خبير في مجال الذكاء الإصطناعي والبلوكتشين حذر من القدرات الهائلة للذكاء الاصطناعي والتي تصل إلى حد التنبو بما يمكن أن يفعله الشخص.

ويوضح في حديث لموقع “الحرة” إن هذه التكنولوجيا لديها القدرة على “تتبع حياة الأفراد والدخول بأدق التفاصيل اليومية للمواطن من دون الحاجة للتدخل البشري، وهذا الأمر مرعب إذا ما تم استخدامه بطريقة خاطئة”.

وأضاف الغازي أن هذه الأنظمة “لا تحد من قدرة الأفراد من التعبير فقط، وإنما يتعدى ذلك إلى إمكانية التنبؤ بطريقة تفكيرهم ومعرفهم تفضيلاتهم اليومية، بما يمكنهم من رصد من سيقابل من الأشخاص الآخرين، أو بماذا يتحدث مع زوجته أو أطفاله، وهو ما يتعارض مع أبسط مبادئ حقوق الإنسان بالعيش والتفكير والاختيار”.


أنظمة التعرف على الوجه

مخاوف من مخاطر أنظمة التعرف على الوجه. 

ومع تزايد استخدام أنظمة التعرف على الوجه حول العالم، دعت منظمة العفو الدولية منذ سنوات إلى حظر استخدامها والتي اعتبرتها “شكلا من أشكال المراقبة الجماعية التي تنتهك حق الإنسان في الخصوصية وتهدد حقه في حرية التجمع والتعبير السلميين”.

وأنظمة التعرف هي برامج وتطبيقات “قادرة على تحديد هوية الشخص أو تأكيدها باستخدام وجهه فقط، من خلال تحديد ملامح الوجه في الصورة وقياسها.. وتستخدم أنظمة أمان للتعرف على الأفراد” بحسب موقع أمازون.

ويعتمد التحليل في هذه التطبيقات على تحديد “المسافة بين العينين، والمسافة بين الجبهة والذقن، والمسافة بين الأنف والفم، وعمق محجر العين، وشكل عظام الخد، ومحيط الشفاه والأذنين”، إضافة إلى بيانات أخرى للوجه أصبحت تعرف باسم “بصمة الوجه”.

وتقول المنظمة إن هذه التكنولوجيا تؤدي إلى تفاقم “العنصرية الممنهجة” خاصة ضد “ذوي البشرة السمراء، وهم أكثر الفئات عرضة للخطأ في تحديد هوياتهم باستخدام أنظمة التعرف على أوجه”.

واعتبرت المنظمة أن تكنولوجيا التعرف على الوجه هي “تقنية منحازة ومعيبة ومناقضة للديمقراطية”.

وتشرح أن تطوير تكنولوجيا التعرف على الوجه تعتمد على “استخراج الملايين من الصور من حسابات مستخدمي وسائل التواصل الاجتماعي، ورخص قيادة السيارات، من دون موافقة أصحابها؛ وبعد ذلك يقوم البرنامج الإلكتروني بتحليل صور الوجه التي التقطتها كاميرات الدوائر التليفزيونية المغلقة أو غيرها من أنظمة المراقبة بالفيديو بحثا عن أي تطابق محتمل بين هذه الصور والصورة المستخرجة المحفوظة في قاعدة البيانات.

الأكاديمي النجار يشرح أن “تقنيات التعرف على الوجه تستخدمها الأنظمة السلطوية لتعزيز قدرتها على المراقبة والقمع، فهي تتيح لهم من خلال صورة الوجه فقط التعرف على الأفراد وتتبعهم ومراقبتهم بما يصل لحد التجسس”.

وأضاف أن هذه الممارسات لا تعمل بمعزل عن الاعتماد على قواعد البيانات المفتوحة التي توفرها “شبكات التواصل الاجتماعي والإنترنت، والتي تعتمد عليها الحكومات السلطوية لتحليل البيانات الضخمة واستخلاص المعلومات وتحديد الأنماط”، والتي كانت تحتاج إلى جهد بشري كبير سابقا ولكن مع تقنيات الذكاء الاصطناعي أصبحت على بعد “كبسة زر واحد لتنفيذ مهام مراقبة وتحليل وتتبع بكفاءة أكبر وبتكلفة أقل”.

وقالت دراسة سابقة للمعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة إن “أنظمة التعرف على الوجه الرقمية، تجد صعوبة في تحديد هوية الأميركيين من أصول إفريقية وآسيوية وحتى السكان الأصليين”.

وأوضحت الدراسة التي اعتمدت على تحليل نتائج 189 خوارزمية طورتها 99 شركة بينها مايكروسوفت وإنتل وباناسونيك، أن نسبة الإجابات الخاطئة ترتفع عندما يتم مطابقة صورة الوجه لذوي البشرة السمراء أو من أصول آسيوية.

ورغم عدم اختبار خوارزمية أمازون لتقنية التعرف على الوجه إلا أن الدراسة أشارت إلى أنها متحيزة أيضا بما يرتبط بـ”العرق ونوع الجنس”.

وفي أواخر عام 2021 قالت شركة ميتا مالكة شبكة فيسبوك إنها ستلغي قاعدة بيانات نظام التعرف على الوجه التي تضم أكثر من مليار بصمة وجه استجابة لمخاوف جدية بشأن الخصوصية.

وفي عام 2018 قال نائب رئيس مجلس الإدارة رئيس شركة مايكروسوفت، براد سميث في منشور على المدونة التي ترعاها الشركة “إن على الحكومات تشكيل لجنة خبراء لتكنولوجيا التعرف على الوجه”، إذ أن هناك استخدامات إيجابية لتكنولوجيا التعرف على الوجه، ولكن هناك بعض الاستخدامات التي تستهدف تتبع الأشخاص دون أخذ الأذن منهم، ما يخترق خصوصيتهم.

وأضاف أن فكرة تتبع الأشخاص التي كانت مجرد أفكار وتخيلات في الأفلام، أصبحت واقعا حقيقيا يمكن تطبيقه على نطاق واسع، ما يتطلب تدخل “الكونغرس” لإيجاد تشريع لهذا الأمر.

ويقول خبير التقنية الغازي إلى أن وجود تقنيات التعرف على الوجه قد تجعل بعض الفئات وكأنها تعيش داخل “سجن كبير” أسواره الرئيسية مدعمة “بكاميرات الذكاء الاصطناعي”، والتي لديها القدرة على تمييز هويات الناس وتتبعهم بحسب عرقهم أو لونهم أو شكل وجههم.


الصين وتطويع الذكاء الاصطناعي في الرقابة القسرية

الصين تطوع أنظمة الذكاء الاصطناعي في الرقابة على الأفراد.

منذ سنوات تتحدث تقارير دولية عن انتهاكات صينية وتطويعها للتكنولوجيا في فرض نوع من الرقابة من القسرية والتي تستهدف فيها اضطهاد الإيغور، وفق تقرير سابق لصحيفة تيلغراف.

ويكشف التقرير أن سكان مقاطعة شينجيانغ يخضعون لرقابة دائمة من خلال تقنيات متقدمة تحت ذرائع واهية مثل “الوقاية من الأوبئة”، حيث تفرض عليهم تحميل تطبقات تتبع إلزامية، والتي توثيق فيها سجل الحركة والمعلومات الشخصية التفصيلية وتحديدا العرق.

وعلى الجميع استخدام هذا التطبيق والتفاعل مع “رموز خاصة” لدخول سوق المواد الغذائية، أو العودة للمنزل، ما يسمح للسلطات رسم خارطة لتحركات الأفراد.

ويقول الغازي إن “بعض الأنظمة السياسية قد تطور أو تستخدم تطبيقات تكنولوجية تستهدف فيها مجموعات معينة بشكل صارم جدا، يعيق الحياة اليومية للأفراد ويؤثر على عملهم” وهو ما يفضي إلى نوع من “الأنظمة الحاكمة المهيمنة المدعمة بالذكاء الاصطناعي”.

ويشير إلى أن هذه التقنيات قد تستخدم لإضفاء المزيد من الرخاء على حياة الشعوب أو تشديد القيود المفروضة عليهم.

وكررت منظمة العفو الدولية إدانتها لقمع الصين للأقلية المسلمة معتبرة أن الأمر يصل لحد “الجرائم صد الإنسانية”، وانتقدت إنشاء السلطات الصينية “واحدا من أعقد أنظمة المراقبة في العالم”، بالإضافة إلى شبكة واسعة من المراكز التي أقامتها تحت شعار “مراكز التغيير من خلال التثقيف”، وأكدت أنها بالواقع معسكرات للاعتقال في جميع أنحاء الإقليم.

وفي يناير 2021، قررت الحكومة الأميركية أن الإجراءات التي اتخذتها الصين في منطقة شينجيانغ ذاتية الحكم تمثل “إبادة جماعية” ضد سكانها من الأقليات العرقية الإيغورية، بسبب الإجراءات التي تستهدف المواليد الجدد، والحجز التعسفي، والأنباء التي تقول إن السلطات الصينية أخضعت نساء من هذه الأقلية إلى عمليات “عقم قسري”.


كيف تتعرف أنظمة الصين على الأفراد؟


تكنولوجيا التعرف على الوجه 

ويؤكد تقرير سابق نشرته وكالة رويترز أن “الصين جندت شركات مراقبة للمساعدة في وضع معايير لأنظمة دقيقة للتعرف على الوجوه عبر تتبع الخصائص مثل العرق ولون البشرة”، وهو ما يتم استغلاله في مجال المراقبة وحقوق الإنسان.

وحددت مجموعة أبحاث المراقبة “أي بي في أم” كيفية جمع البيانات التي يتم التقاطها بواسطة كاميرات التعرف على الوجه، ومنها حجم الحاجب ولون البشرة لتحديد “العرق”، ويقسمها إلى خمس فئات وهي أبيض، أسود، بني، أصفر وأخرى.

وتتعقب الكاميرات على نطاق واسع الأفراد حسب لون البشرة والعرق وشكل قصة الشعر، في حين تنفي السلطات الصينية أي انتهاكات لحقوق الإنسان.

ولا يقف الاضطهاد الصيني تجاه الإيغور عند حدود مخيمات الاعتقال والتتبع، إذ تسعى السلطات إلى تسخير جميع الوسائل، حتى العلمية منها بمحاولة رسم خريطة لشكل وجوه المواطنين من الإيغور اعتمادا على الحمض النووي، بحسب تقرير سابق لصحيفة نيويورك تايمز.

وجعلت الصين من الإيغور في منطقة شينغيانغ أشبه بفئران تجارب لاختبار نظامها الذي تطوره من أجل تسهيل متابعة وملاحقة هذه الأقلية، وقامت بجمع عينات دم بشكل واسع من أجل اختبار نظام بناء شكل الوجه اعتمادا على نقطة دم.

ورغم أنه يبدو من الخيال معرفة شكل الإنسان من خلال نقطة دم واحدة فقط، إلا أن العلماء توصلوا إلى عملية تسمى”التنميط الظاهري للحمض النووي” والتي تتيح لهم تحليل الحمض النووي ومعرفة الصفات الأساسية لشخص ما، مثل لون بشرته ولون عينيه، وبالتالي إعادة بناء شكل وجهه باستخدام صور ثلاثية الأبعاد.

ويتخوف خبراء من استخدام الصين للنظام على المدى الطويل، خاصة إذا ما تم تفعيله مع نظام التعرف على الوجه من خلال كاميرات المراقبة المنتشرة في أنحاء البلاد، وإذا ما أضيفت خارطة بناء الوجه اعتمادا على الحمض النووي، فإن هذا سيعني أنها تبني نظاما يمكنها من تشديد قبضتها على المجتمع وتعظيم قدرتها على ملاحقة المعارضين والمتظاهرين.

ومع القدرة على إعادة بناء الوجوه سيكون لدى السلطات الصينية أداة علمية وراثية من أجل إحكام سلطتها على الإيغور، وهي أصلا قامت بجمع العديد من عينات الحمض النووي منهم، وحتى بعيدا عن هذه الأقلية تمتلك الصين أكبر قاعدة بيانات للحمض النووي في العالم تضم نحو 80 مليون عينة.

إيران تنسخ التجربة الصينية



إيران تستخدم أنظمة صينية في أنظمة المراقبة في المدن

وبعد توقيع إيران والصين معاهدة تعاون اقتصادي واستراتيجي مدتها 25 في مارس من 2021، أعلن بعدها بفترة عن مشروع كبير لتركيب أنظمة كاميرات رقابة وتتبع صينية في العديد من المدن الإيرانية.

ورغم نشر الكاميرات في المدن الإيرانية منذ عدة أشهر إلا أن الشرطة الإيرانية أعلنت في إبريل الماضي، إنها تركب كاميرات في الأماكن العامة والطرقات لرصد النساء اللاتي لا يلتزمن بالحجاب ومعاقبتهن، بحسب وكالة رويترز.

وقالت الشرطة في بيان إن المخالفات سيلتقين بعد رصدهن “رسائل نصية تحذيرية من العواقب”.

ويخلع عدد متزايد من الإيرانيات الحجاب منذ وفاة شابة كردية عمرها 22 عاما وهي رهن الاحتجاز لدى شرطة الأخلاق في سبتمبر الماضي. وكانت مهسا أميني محتجزة بتهمة انتهاك قواعد الحجاب. وتصدت قوات الأمن للتمرد بعنف.

وفي يناير الماضي قال تقرير نشره موقع “وايرد” المتخصص بالتكنولوجيا تقوم أجهزة الأمن الإيرانية باعتقال النساء حتى بعد عدة أيام من مخالفتهن لقواعد اللباس، حيث يجري تتبعهن ورصدهن باستخدام تكنولوجيا التعرف على الوجه الصينية المنشأ، ليصار إلى اعتقالهن.

واقترح مشرعون إيرانيون العام الماضي، استخدام تكنولوجيا التعرف على الوجوده لرصد مخالفات قانون الملابس، بحسب ما كشف مسؤول إيراني في سبتمبر الماضي، مؤكدا أن هذه التقنية يمكنها “التعرف على وجوه الأفراد” المخالفين، بالاستعانة بقاعدة بيانات الهوية الوطنية.

وأشار تقرير نشره موقع “أويل برايس” إلى أن أنظمة المراقبة في إيران سيتم ربطها مع خوارزميات نظام المراقبة الصيني، ما يعني أن قاعدة البيانات الإيرانية ستصبح جزءا من قاعدة البيانات الصينية.


الذكاء الاصطناعي في الشرق الأوسط

دول خليجية تستخدم أنظمة متطورة للرقابة تعتمد على الذكاء الاصطناعي. 

“قارئ موجات للدماغ لكشف الكذب” و”كاميرات صغيرة” و”كاميرات ترصد ما يزيد عن كلم” وغيرها من الأجهزة والتقنيات التي تستخدم في دول الشرق الأوسط بحسب تقرير آخر نشرته صحيفة نيويورك تايمز.

وللوصول إلى “مزيج تجسس بطريقة فعالية مذهلة” يمكنك شراء “برامج قرصنة إسرائيلية، وتطبيقات أميركية وخوارزميات صينية” بحسب الصحيفة.

ويشير التقرير إلى أن التوسع في تقنيات التتبع الأمنية والتي تعتمد على الذكاء الاصطناعي في الشرق الأوسط يثير تساؤلات حول التأثيرات على “خصوصية الأشخاص وكيفية ممارسة السلطة السياسية”، خاصة في ظل ما كشفه مؤتمر للشرطة في دبي عقد في مارس الماضي، والذي استعرض فيه أحدث التقنيات من خلال برامج مراقبة متقدمة والتي تستخدم تطبيقات التعرف على الوجه، بمميزات تتيح تتبع الأفراد من خلال الكاميرات المنتشرة عبر المدن، أو باختراق أجهزة الحاسوب والهواتف الخلوية.

ووصفت الصحيفة استخدام هذه التقنيات في دول عربية خاصة الإمارات بأنها “دعامة غير ديمقراطية للسلطة السياسية”، رغم أنها ستساعد أيضا في وقف الجريمة والهجمات الإرهابية.

وتتهم منظمة العفو الدولي دول نفطية في الشرق الأوسط بأنها تتبع النقاد والمعارضين في انتهاك لحقوق الإنسان، خاصة باستخدام برنامج “بيغاسوس” الإسرائيلي لاختراق الهواتف الخلوية.

وكشف مختبر “سيتيزن لاب” الكندي استخدام برامج التجسس مثل “بيغاسوس” على نطاق واسع من قبل حكومات وأجهزة أخرى للتجسس على المعارضين ووسائل الإعلام والنشطاء.

وأعلن مؤخرا عن برنامج تجسس إسرائيلي جديد يشبه برنامج “بيغاسوس” جرى استخدامه لاستهداف صحفيين وسياسيين معارضين في دول عدة، والذي طورته شركة إسرائيلية غير معروفة تحمل اسم “كوادريم ليمتد” أسسها مسؤول عسكري إسرائيلي سابق وموظفون مخضرمون سابقون في شركة “أن أس أو” التي أنتجت “بيغاسوس”.


إطار أخلاقي دولي”

جدل حول فرض القوانين والتشريعات على أنظمة الذكاء الاصطناعي.

ودعا خبراء في حديثهم لموقع “الحرة” إلى ضرورة وضع “إطار أخلاقي دولي” ينظم حدود تطبيقات الذكاء الاصطناعي، وكيفية التعامل مع بيانات المستخدمين وحمايتها.

الناشطة في حقوق الإنسان، ريكي فرانك يورغنسن دعت إلى ضرورة إعلان السلطات والأنظمة المختلفة عن استخدامها لأنظمة الذكاء الاصطناعي، واتاحة المجال لهيئات الرقابة الوطنية في تقييم مدى التزامهم بعد انتهاك حقوق الإنسان.

وقالت يورغنسن وهي باحثة في المعهد الدنماركي لحقوق الإنسان “دي أي أتش أر” لموقع “الحرة” إن تطبيقات الذكاء الاصطناعي تفرض تحديات كبيرة على حقوق الإنسان، مشيرة إلى أن “استخدام التكنولوجيا في آليات صنع القرار في القطاع العام قد تشكل تحديا لحقوق المواطنين في بعض الآحيان”.

خبير التكنولوجيا المبيض قال بدوره إنه لا يجب المبالغة في إمكانات “الذكاء الاصطناعي في حل بعض القضايا الملحة، مثل الفقر والتعليم والطب وغيرها.. إذ يجب وضع قيود صارمة تسمح باستمرار تقدم التقنيات في هذا المجال ولكن من دون الإضرار بالإنسان”.

ويؤكد أن التعامل بمسؤولة مع الذكاء الاصطناعي ليست على “عاتق الحكومات والأفراد فقط، بل تقع في المرتبة الأولى على عاتق الشركات التي تطور هذه التكنولوجيا، وعليهم الموازنة بين التطوير وحماية حقوق الإنسان”.

واقترح المبيض “تشكيل هيئات مستقلة داخل الشركات التقنية لتقوم بدراسة التهديدات المحتملة وتقييمها بشكل موضوعي، لتقديم توصياتها في تحسين ممارسات الذكاء الاصطناعي، وتثقف المستخدمين بالآثار السلبية التي قد تنشأ في حال إساءة الاستخدام”.

ويتفق الأكاديمي النجار مع هذا الرأي وقال إن “تحديات الذكاء الاصطناعي تفرض على المجتمع الدولي والحكومات وصناع القرار اتخاذ إجراءات للحد من مخاطره لضمان احترام حقوق الإنسان والقيم الديمقراطية”.

وشدد على ضرورة “تبني معايير دولية للمنظومة الأخلاقية والسلامة والتعاون بين الدول والمنظمات الدولية لتطوير استراتيجيات تكنولوجية مستدامة ومسؤولة”، إذ يجب تكثيف “دعم البحث والتطوير في مجال الذكاء الاصطناعي الأخلاقي والمسؤول ونشر الوعي والتثقيف حول الأخلاقيات وحقوق الإنسان”.

وزاد النجار أن “ينبغي تشجيع الابتكارات التكنولوجية التي تركز على تعزيز حقوق الإنسان والتنمية المستدامة ودعم تمثيل المجتمع المدني والمنظمات غير الحكومية في المناقشات حول استخدام الذكاء الاصطناعي وحقوق الإنسان”.

ويثير الخبير الغازي المخاوف من أن استخدام تقنيات الذكاء الاصطناعي من البعض قد يكون “أمرا مجهولا، وهو ما يجعل من الصعب معرفة أين؟ وكيف تستخدم هذه الأنظمة؟”، ولهذا يجب أن يتم التعامل دوليا مع هذا الأمر بشكل شفاف ومعلن.

وأشار إلى أنه يجب “توقيع المبرمجين على مواثيق شرف أشبه بتلك التي يوقعها الأطباء عند إستلام شهاداتهم، من أجل الزامهم بعدم تطوير الاستخدامات الضارة في تقنيات الذكاء الاصطناعي، وتعزيزها بمنظومة مواثيق ومعاهدات دولية للحد من استخدام الحكومات والدول لها بشكل ينتهك حقوق الإنسان”.


الحق في الخصوصية في العصر الرقمي

الخصوصية باتت مهددة في ظل تنامي الاعتماد على التكنولوجيا.

وفي أغسطس من 2022، أصدرت مفوضية الأمم المتحدة السامية لحقوق الإنسان تقريرا أكدت فيه على أهمية “الحق في الخصوصية في العصر الرقمي”، خاصة مع تنامي “إساءة استخدام أدوات الاختراق الحاسوبي الاقتحامية، تفشي رصد الأماكن العامة، وخطر إنشاء نظم للمراقبة والرقابة الشاملة التي قد تقوض تنمية مجتمعات نابضة بالحياة تحترم الحقوق”.

ودعت إلى كبح هذه “التكنولوجيات من خلال تنظيم فعال قائم على القانون والمعايير الدولية لحقوق الإنسان”، مشيرة إلى أنه “في حين يزعم أن أدوات التجسس تستخدم لمكافحة الإرهاب والجريمة، فإنها كثيرا ما تستخدم لأسباب غير مشروعة، بما في ذلك قمع الآراء الناقدة أو المعارضة ومن يعبرون عنها، بمن فيهم الصحفيون والشخصيات السياسية المعارضة والمدافعون عن حقوق الإنسان”.

ودعت المفوضية إلى “اعتماد خطوات عاجلة من أجل التصدي لتفشي برامج التجسس”، مكررة “الدعوة إلى وقف استخدام وبيع أدوات الاختراق الحاسوبي إلى أن يتم وضع نظام ضمانات كافية لحماية حقوق الإنسان”.

وأكدت أهمية “أن تعمل على الفور على إنشاء نظم قوية جيدة التصميم لمراقبة الصادرات تنطبق على تكنولوجيات المراقبة، والتي ينطوي استخدامها على مخاطر كبيرة على التمتع بحقوق الإنسان، حيث ينبغي للدول أن تشترط إجراء تقييمات شفافة للأثر على حقوق الإنسان، التي تأخذ في الاعتبار قدرات التكنولوجيات المعينة فضلا عن الحالة في الدولة المتلقية”.


مبادرة واشنطن في مواجهة الاستبداد الرقمي 

واشنطن استضافت قمة الديمقراطية الثانية في مارس الماضي.

وأعلنت إدارة الرئيس الأميركي، بايدن نهاية مارس مبادرة “تطويع التكنولوجيا لدعم القيم والمؤسسات الديمقراطية“، والتي تؤكد على أهمية مؤائمة التقنيات الحديثة مثل الذكاء الاصطناعي مع احترام المبادئ الديمقراطية وحقوق الإنسان والحريات الأساسية.

وتعمل مبادرة بايدن للديمقراطية الرقمية من خلال تعزيز دور برامج الوكالة الأميركية للتنمية الدولية في الدول التي تعمل بها، إضافة تعزيز ائتلاف “فريدوم أونلاين” بإضفاء نوع من الطابع المؤسسي لتعزيز حرية الإنترنت.

كما ستقوم الولايات المتحدة بتعزيز إتاحة تكنولوجيا الاتصالات عبر الإنترنت للمواطنين في المجتمعات المغلقة، مثل جهود توفير الإنترنت للمواطنين في إيران من خلال رفع العقوبات عن الشركات الأجنبية التي ستساهم في ذلك.

ويؤكد البيت الأبيض أن المبادرة تستهدف مواجهة الاستبداد الرقمي، خاصة في ظل استغلال حكومات للتكنولوجيا والذكاء الاصطناعي في عمليات الرقابة والتتبع ضمن حملات قمع ممنهجة للسيطرة على النشطاء والمعارضين داخل وخارج البلاد.

وتشير العديد من الحالات إلى إساءة استخدام برامج التجسس التجارية وانتشار المضايقات عبر الإنترنت للناشطين، الأمر الذي يتطلب مواجهتها “حزمة شاملة” من الإجراءات بدمج مبادئ حقوق الإنسان مع التكنولوجيا.

كما يجب اتخاذ إجراءات لمكافحة انتشار “برامج التجسس التجاري” من خلال تعميق التعاون الدولي، ووضع مبادئ توجيهية حول استخدام الحكومات لتكنولوجيا المراقبة، إضافة تعزيز المبادرات لتعزيز الأمن السيبراني للمجتمعات الأكثر عرضة للخطر، أو المعرضين للقمع العابر للحدود.

ويؤكد البيت الأبيض أن التكنولوجيا الحديثة مثل أنظمة الذكاء الاصطناعي والتقنيات الحيوية لها فوائد قد تكون مغيرة للواقع بشكل كبير، ولهذا يجب ضمان ألا تكون الابتكارات والتقدم على حساب القيم الديمقراطية وحقوق الإنسان.

وأشار إلى أنه يجب وضع خارطة طريق لتحقيق هذه الأهداف من خلال مشاريع قوانين الذكاء الاصطناعي وأطر العمل لإدارة مخاطر هذه التقنية.

©️alhurra

التعليقات مغلقة.

محادثة واتسأب مباشرة
هل تريد المساعدة؟
مرحباً ...
هل تريد المساعدة؟
تواصل معنا مباشرة عبر الواتسأب.