فضيحة: غوغل تزود الكيان بتقنيات القمع الحديثة

25 تموز 2022 - 02:40 - الإثنين 25 تموز 2022, 14:40:12

وكالة القدس للأنباء – ترجمة

لدى موظفي شركة   Google، الذين على علم بمشروع الذكاء الاصطناعي  "Nimbus"، مخاوف بشأن الانتهاكات "الإسرائيلية" لحقوق الإنسان.

تؤكد المواد التدريبية التي استعرضتها The Intercept أن Google تقدم ذكاء اصطناعيًا متقدمًا وقدرات التعلم الآلي للحكومة "الإسرائيلية" من خلال مشروعها "Project Nimbus" المثير للجدل. أعلنت وزارة المالية "الإسرائيلية" عن عقد في نيسان / أبريل 2021 لنظام حوسبة سحابية بقيمة 1.2 مليار دولار تم بناؤه بالاشتراك بين Google وAmazon  . وقالت الوزارة في إعلانها: "يهدف المشروع إلى تزويد الحكومة والمؤسسة الدفاعية وغيرها بحل سحابي شامل".

أمضى مهندسو Google الوقت منذ ذلك الحين في قلق بشأن ما إذا كانت جهودهم ستدعم عن غير قصد الاحتلال العسكري "الإسرائيلي" المستمر لفلسطين. في العام 2021، اتهمت كل من هيومن رايتس ووتش ومنظمة العفو الدولية "إسرائيل" رسمياً بارتكاب جرائم ضد الإنسانية من خلال الحفاظ على نظام الفصل العنصري ضد الفلسطينيين. بينما تعتمد الخدمات العسكرية والأمنية "الإسرائيلية" بالفعل على نظام متطور للمراقبة المحوسبة، يمكن أن يؤدي تطور عروض تحليل البيانات من Google إلى تفاقم الاحتلال العسكري الذي يعتمد على البيانات بشكل متزايد.

وفقًا لمجموعة من وثائق التدريب ومقاطع الفيديو التي حصلت عليها The Intercept من خلال بوابة تعليمية يمكن الوصول إليها بشكل عام ومخصصة لمستخدمي  Nimbus، تقدم Google للحكومة "الإسرائيلية" مجموعة كاملة من أدوات التعلم الآلي والذكاء الاصطناعي المتاحة من خلال منصةGoogle Cloud.   في حين أنها لا تقدم أي تفاصيل حول كيفية استخدام   Nimbus، تشير الوثائق إلى أن السحابة الجديدة ستمنح "إسرائيل" إمكانات لاكتشاف الوجه، والتصنيف الآلي للصور، وتتبع الأشياء، وحتى تحليل المشاعر التي تدعي تقييم المحتوى العاطفي للصور والكلام والكتابة. أشارت مواد Nimbus إلى التدريبات الخاصة بالوكالة المتاحة للموظفين الحكوميين من خلال خدمة التعلم عبر الإنترنت Coursera، مستشهدة بوزارة الدفاع كمثال.

شارك جاك بولسون، مدير مجموعة المراقبة Tech Inquiry، عنوان البوابة مع The Intercept   بعد العثور عليه في وثائق التعاقد "الإسرائيلية".

قال بولسون: "الرئيس السابق لأمن مشروع Google  - وهو يرأس الآن فرع شركة Oracle في "إسرائيل" - جادل علنًا بأن أحد أهداف Nimbus هو منع الحكومة الألمانية من طلب بيانات تتعلق بجيش الدفاع الإسرائيلي للمحكمة الجنائية الدولية". وكان بولسون قد استقال من وظيفته كعالم أبحاث في Google في 2018 احتجاجًا على ذلك. وقال في رسالة: "بالنظر إلى استنتاج هيومن رايتس ووتش بأن الحكومة الإسرائيلية ترتكب" جرائم ضد الإنسانية تتمثل في الفصل العنصري والاضطهاد "ضد الفلسطينيين، فمن الأهمية بمكان أن يتم توثيق دعم المراقبة في Google وأمازون للجيش الإسرائيلي على أكمل وجه".

وعلى الرغم من أن بعض المستندات تحمل رمزًا مختلطًا لشعار Google والعلم "الإسرائيلي"، إلا أنها في الغالب ليست فريدة من نوعها بالنسبة إلى Nimbus. بدلاً من ذلك، يبدو أن المستندات عبارة عن مواد تعليمية قياسية تم توزيعها على عملاء Google Cloud وتم تقديمها في سياقات تدريب سابقة في مكان آخر.

ولم Google على طلب للتعليق.

المستندات التي حصلت عليها The Intercept تعرض لأول مرة تفاصيل ميزات Google Cloud  المقدمة من خلال عقد Nimbus. مع عدم الكشف عن أي شيء علنيًا عن Nimbus بخلاف وجوده، ظلت الوظيفة المحددة للنظام لغزًا حتى بالنسبة لمعظم العاملين في الشركة التي قامت ببنائها. في العام 2020، نقلاً عن أدوات الذكاء الاصطناعي نفسها، استغلت الجمارك وحماية الحدود الأمريكية Google Cloud لمعالجة الصور في شبكتها لأبراج مراقبة الحدود.

يمكن للعديد من القدرات الموضحة في الوثائق التي حصلت عليها The Intercept أن تزيد بسهولة من قدرة "إسرائيل" على مراقبة الأشخاص ومعالجة مخازن البيانات الضخمة - وهي بالفعل سمات بارزة للاحتلال "الإسرائيلي".

قال أوري جفعاتي من منظمة كسر الصمت، وهي مجموعة مناهضة للاحتلال تتألف من قدامى المحاربين في الجيش "الإسرائيلي"، لموقع The Intercept في رسالة بالبريد الإلكتروني: "كان جمع البيانات عن جميع السكان الفلسطينيين ولا يزال جزءًا لا يتجزأ من الاحتلال". وأضاف: "بشكل عام، التطورات التكنولوجية المختلفة التي نشهدها في الأراضي المحتلة كلها تتجه إلى عنصر مركزي واحد وهو المزيد من السيطرة".

استفادت دولة الأمن "الإسرائيلية" لعقود من قطاع البحث والتطوير المزدهر في البلاد، واهتمامها باستخدام الذكاء الاصطناعي للشرطة والسيطرة على الفلسطينيين ليس أمرًا افتراضيًا. في العام 2021، كشفت صحيفة واشنطن بوست عن وجود  Blue Wolf، وهو برنامج عسكري سري يهدف إلى مراقبة الفلسطينيين من خلال شبكة من الهواتف الذكية والكاميرات التي تدعم التعرف على الوجه.

قالت منى اشتية، المدافعة عن الحقوق الرقمية الفلسطينية في 7 amleh - المركز العربي لتقدم وسائل التواصل الاجتماعي: "لقد علمنا العيش في ظل دولة مراقبة لسنوات أن جميع المعلومات التي تم جمعها في السياق "الإسرائيلي" / الفلسطيني يمكن أن يتم تأمينها وعسكرة". وأضافت: "التعرف على الصور، والتعرف على الوجه، والتحليل العاطفي، من بين أمور أخرى، سيزيد من قوة دولة المراقبة في انتهاك حق الفلسطينيين بالخصوصية وخدمة هدفهم الرئيسي، وهو خلق شعور شامل بين الفلسطينيين بأننا مراقبون طوال الوقت، ما سيجعل السيطرة على السكان الفلسطينيين أسهل".

تُظهر المواد التعليمية التي حصلت عليها The Intercept أن Google قد أطلعت الحكومة الإسرائيلية على ما يُعرف باسم اكتشاف المشاعر، وهو شكل من أشكال التعلم الآلي المثير للجدل والفاقد للمصداقية. تدعي Google أن أنظمتها يمكنها تمييز المشاعر الداخلية من وجه الشخص وتصريحاته، وهي تقنية يتم رفضها بشكل شائع باعتبارها زائفة علمياً، ويُنظر إليها على أنها أفضل قليلاً من علم فراسة الدماغ. في حزيران / يونيو، أعلنت Microsoft أنها لن تقدم ميزات الكشف عن المشاعر من خلال منصة الحوسبة السحابية Azure - وهي مجموعة تكنولوجية مماثلة لما توفره Google مع Nimbus - مشيرة إلى افتقارها إلى الأساس العلمي.

لا يبدو أن Google تشارك Microsoft مخاوفها. عرض أحد العروض التقديمية في Nimbus عن إمكانات الكشف عن "الوجوه ومعالم الوجه والعواطف" في Cloud Vision API من Google، وهي مجموعة أدوات لتحليل الصور. قدم العرض بعد ذلك عرضًا توضيحيًا باستخدام النحت الهائل للوجه المبتسم عند مدخل لونا بارك في سيدني. تشير لقطة شاشة مضمّنة للميزة ظاهريًا أثناء العمل إلى أن الابتسامة الهائلة "من غير المحتمل جدًا" أن تظهر أيًا من المشاعر المماثلة. تمكنت Google فقط من تقييم أن مدينة الملاهي الشهيرة هي مدينة ملاهي مع يقين بنسبة 64٪، بينما توقعت أن المعلم كان "مكانًا للعبادة" أو "معبدًا هندوسيًا" بثقة 83٪ و74٪ على التوالي.

قال موظفو Google الذين راجعوا الوثائق إنهم قلقون من بيع صاحب العمل لهذه التقنيات إلى إسرائيل، خوفًا من عدم دقتها ومن كيفية استخدامها للمراقبة أو لأغراض عسكرية أخرى.

قال أحد الموظفين، وقد أوضح أن تحليل الصور سيكون مناسبًا بشكل طبيعي للتطبيقات العسكرية والأمنية: "تعد Vision API مصدر قلق رئيسي بالنسبة لي لأنها مفيدة جدًا للمراقبة". وتابع: "التعرف على الكائنات مفيد للاستهداف، وهو مفيد لتحليل البيانات وتصنيفها. يمكن للذكاء الاصطناعي التمشيط من خلال موجزات المراقبة المجمعة بطريقة لا يستطيع الإنسان العثور على أشخاص محددين وتحديد الأشخاص، مع وجود بعض الأخطاء، في حالة الذين يشبهون شخصًا ما. هذا هو السبب في أن هذه الأنظمة خطيرة حقًا".

وأضاف الموظف - الذي طلب، مثل غيره من العاملين في Google الذين تحدثوا إلى The Intercept، عدم الكشف عن هويته لتجنب الأعمال الانتقامية في مكان العمل - أنهم قلقون أكثر من المراقبة المحتملة أو التطبيقات العسكرية الأخرى لـ AutoML، وهي أداة أخرى من أدوات الذكاء الاصطناعي من Google المقدمة من خلال Nimbus. التعلم الآلي هو إلى حد كبير وظيفة برنامج التدريب للتعرف على الأنماط من أجل إجراء تنبؤات حول الملاحظات المستقبلية، على سبيل المثال من خلال تحليل ملايين صور القطط اليوم من أجل الادعاء بثقة أنها تنظر إلى صورة قطة غدًا. ينتج عن عملية التدريب هذه ما يُعرف باسم "النموذج" - مجموعة من التعليم المحوسب يمكن تطبيقه للتعرف تلقائيًا على كائنات وسمات معينة في البيانات المستقبلية.

غالبًا ما يكون تدريب نموذج فعال في البداية للموارد المكثفة، من الناحيتين المالية والحسابية. هذه ليست مشكلة كبيرة لشركة عالمية مثل Google، مع حجم لا يسبر غوره من الأموال وأجهزة الحوسبة جاهزة. جزء من جاذبية Google للعملاء هو خيار استخدام نموذج مدرب مسبقًا، ما يؤدي بشكل أساسي إلى إبعاد هذا التعليم عن التنبؤ والسماح للعملاء بالوصول إلى برنامج مدرب جيدًا يستفيد من موارد الشركة غير المحدودة.

تعد Cloud Vision أحد هذه النماذج المدربة مسبقًا، ما يسمح للعملاء بتنفيذ نظام تنبؤ متطور على الفور. من ناحية أخرى، يبسط AutoML عملية تدريب نموذج مخصص، باستخدام بيانات العميل الخاصة للتصاميم الخاصة بالعميل. وضعت Google بعض القيود على Vision - على سبيل المثال قصرها على اكتشاف الوجه، أو ما إذا كانت ترى وجهًا، بدلاً من التعرف الذي من شأنه تحديد هوية الشخص. ومع ذلك، سيسمح برنامج AutoML لإسرائيل بالاستفادة من قدرة Google الحاسوبية لتدريب نماذج جديدة ببياناتها الحكومية الخاصة لأي غرض ترغب فيه تقريبًا. وقالت داميني ساتيجا، التي تقود مختبر المحاسبة الخوارزمي في منظمة العفو الدولية: "إن قدرات التعلم الآلي من Google جنبًا إلى جنب مع البنية التحتية للمراقبة في الدولة الإسرائيلية تشكل تهديدًا حقيقيًا لحقوق الإنسان للفلسطينيين". وأضافت: "إن خيار استخدام الكميات الهائلة من بيانات المراقبة التي تحتفظ بها الحكومة "الإسرائيلية" بالفعل لتدريب الأنظمة لا يؤدي إلا إلى تفاقم هذه المخاطر".

لاحظ أحد العروض التقديمية أنه يمكن تنزيل النماذج المخصصة التي تم إنشاؤها من خلال AutoML لاستخدام "الحافة" دون اتصال بالإنترنت - غير متصلة بالسحابة ونشرها في الميدان.

يسمح NIMBUS لعملاء Google باستخدام تحليل البيانات المتقدم والتنبؤ في الأماكن والطرق التي لا يمكن لـ Google رؤيتها في خلق خطر إساءة الاستخدام، وفقًا لما ذكرته ليز أوسوليفان، الرئيس التنفيذي لشركة Parity لتدقيق الذكاء الاصطناعي الناشئة وعضو اللجنة الاستشارية في الجمعية الوطنية للذكاء الاصطناعي في الولايات المتحدة الأمريكية. قالت أوسوليفان في رسالة: "يمكن للبلدان تمامًا استخدام AutoML لنشر أنظمة مراقبة رديئة تبدو وكأنها تعمل فقط". وتابعت: "على حافة الهاوية، الأمر أسوأ - فكر في الكاميرات الجسدية، وكاميرات المرور، وحتى الجهاز المحمول باليد مثل الهاتف يمكن أن يصبح آلة مراقبة وقد لا تعرف Google حتى بحدوث ذلك."

في ندوة Web Nimbus تمت مراجعتها بواسطة  The Intercept، تم توضيح الاستخدام المحتمل وإساءة استخدام AutoML في جلسة أسئلة وأجوبة بعد العرض التقديمي. سأل عضو من الجمهور مهندسي Google Cloud الموجودين في المكالمة عما إذا كان من الممكن معالجة البيانات من خلال Nimbus لتحديد ما إذا كان شخص ما يكذب.

أجاب المهندس الذي أجرى الندوة بنكتة على ما يبدو: "أنا خائف قليلاً للإجابة على هذا السؤال". وتابع: "من حيث المبدأ: نعم. سوف أتوسع في الأمر، لكن الإجابة المختصرة هي نعم". ثم قفز ممثل آخر لـ Google: "من الممكن، بافتراض أن لديك البيانات الصحيحة، استخدام بنية Google الأساسية لتدريب نموذج لتحديد مدى احتمالية أن يكذب شخص معين، بالنظر إلى صوته"، مشيرًا إلى أن مثل هذه القدرة ستأخذ قدرًا هائلاً من البيانات للنموذج، أضاف المقدم الثاني أن إحدى مزايا Nimbus هي القدرة على الاستفادة من قوة Google الهائلة في الحوسبة لتدريب مثل هذا النموذج.

ومع ذلك، أظهرت مجموعة كبيرة من الأبحاث أن فكرة "كاشف الكذب"، سواء أكان جهاز كشف الكذب البسيط أو التحليل القائم على "الذكاء الاصطناعي" للتغيرات الصوتية أو إشارات الوجه، هو علم غير مرغوب فيه. في حين بدا ممثلو Google واثقين من قدرة الشركة على جعل مثل هذا الشيء ممكنًا من خلال قوة الحوسبة المطلقة، يقول الخبراء في هذا المجال إن أي محاولات لاستخدام أجهزة الكمبيوتر لتقييم الأشياء على أنها عميقة وغير ملموسة مثل الحقيقة والعاطفة هي خاطئة لدرجة الخطر.

قال أحد العاملين الذين راجعوا الوثائق في Google إنهم قلقون من أن الشركة قد تلمح إلى مثل هذه التقنية المشكوك فيها علميًا. قال العامل: "كان يجب أن تكون الإجابة "لا، لأن ذلك غير موجود". وأضاف: "يبدو أن الهدف من ذلك هو الترويج لتقنية Google باعتبارها قوية، ومن غير المسؤول حقًا قول ذلك عندما لا يكون ذلك ممكنًا".

وقال أندرو ماكستاي، أستاذ الوسائط الرقمية في جامعة بانجور في ويلز ورئيس مختبر الذكاء الاصطناعي العاطفي، لموقع The Intercept إن تبادل الأسئلة والأجوبة الخاص بجهاز كشف الكذب كان "مزعجًا"، وكذلك رغبة Google في تقديم أدوات الذكاء الاصطناعي للعلم الزائف إلى حكومة وطنية. قال: "إنه [] مجال شديد التباين، لذا فإن أي تقنية مبنية عليه ستعمل على أتمتة عدم الموثوقية". وأضاف: "مرة أخرى، سيعاني أولئك الذين تعرضوا لها، لكنني سأكون متشككًا للغاية بالنسبة للمواطنين الطالبين للحماية لأن الهدف من ذلك هو القول إن هذه الأنظمة يمكن أن تفعل ما يُطالب به".

وفقًا لبعض النقاد، قد تكون مسألة ما إذا كانت هذه الأدوات تعمل ذات أهمية ثانوية لشركة مثل Google التي تتوق للاستفادة من التدفق المربح دائمًا لأموال العقود العسكرية. قد يكون العملاء الحكوميون أيضًا على استعداد للتغاضي عن عدم التصديق عندما يتعلق الأمر بوعود سلطات تقنية جديدة واسعة النطاق. قال جاثان سادوفسكي، الباحث في تقنيات الأتمتة وزميل باحث في جامعة موناش، في مقابلة مع The Intercept: "من المثير للدهشة أنه في ملف PDF للندوة عبر الإنترنت، أشاروا دائمًا إلى هذا على أنه "الخير السحري للذكاء الاصطناعي". وعلق قائلاً: "هذا يظهر أنهم هراء".

تمتلك  GOOGLE، مثل  MICROSOFT، قائمتها العامة الخاصة "بمبادئ الذكاء الاصطناعي"، وهي وثيقة تقول الشركة إنها "ميثاق أخلاقي يوجه تطوير واستخدام الذكاء الاصطناعي في أبحاثنا ومنتجاتنا". من بين هذه المبادئ المزعومة الالتزام بعدم "نشر الذكاء الاصطناعي ... الذي يسبب أو يحتمل أن يسبب ضررًا عامًا"، بما في ذلك الأسلحة أو المراقبة أو أي تطبيق "يتعارض غرضه مع مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع".

ومع ذلك، أقامت "إسرائيل" علاقتها مع Google لحمايتها من مبادئ الشركة وأي تدقيق خارجي. ربما خوفًا من مصير مشروع Maven التابع للبنتاغون، وهو عقد Google AI الذي سقط بسبب احتجاجات الموظفين الشديدة، فإن مراكز البيانات التي يديرها Nimbus ستقام على الأراضي الإسرائيلية، وتخضع للقانون "الإسرائيلي" ومعزولة عن الضغوط السياسية. في العام الماضي، ذكرت صحيفة تايمز أوف "إسرائيل" أنه سيتم منع Google تعاقديًا من إغلاق خدمات Nimbus أو منع الوصول إلى مكتب حكومي معين ولو استجابة لحملات المقاطعة.

أعرب موظفو Google الذين قابلتهم The Intercept عن أسفهم لأن مبادئ الذكاء الاصطناعي للشركة هي في أفضل الأحوال لفتة سطحية. قال أحد الموظفين لموقع The Intercept، موضحًا أن الشركة فسرت ميثاق الذكاء الاصطناعي الخاص بها بشكل ضيق بحيث لا ينطبق على الشركات أو الحكومات التي تشتري خدمات Google Cloud: "لا أعتقد أن هذا له مغزى كبير". ورداً على سؤال حول مدى توافق مبادئ الذكاء الاصطناعي مع عمل البنتاغون للشركة، قال متحدث باسم Google لـ Defense One: "هذا يعني أنه يمكن للجيش استخدام تقنيتنا على نطاق واسع إلى حد ما".

علاوة على ذلك، أضاف هذا الموظف أن Google تفتقر إلى القدرة على معرفة ما إن كانت مبادئها يتم انتهاكها وانعدام أي وسيلة لإحباط الانتهاكات. قال الموظف: "بمجرد أن تقدم Google هذه الخدمات، ليست لدينا القدرة التقنية لمراقبة ما يفعله عملاؤنا بهذه الخدمات". وأضاف: "يمكنهم فعل أي شيء". وقال عامل آخر في Google لموقع The Intercept: "في الوقت الذي يواجه فيه السكان الضعفاء بالفعل مستويات غير مسبوقة ومتصاعدة من القمع، تتراجع Google عن التزاماتها بحماية الناس من هذا النوع من إساءة استخدام تقنيتنا. أنا خائف حقًا على مستقبل Google   والعالم".

وقالت أرييل كورين، وهي موظفة في Google ادعت في وقت سابق من هذا العام أنها واجهت الانتقام لإثارة مخاوف بشأن   Nimbus، إن الصمت الداخلي للشركة بشأن البرنامج مستمر: "أشعر بقلق بالغ من أن Google لم تزودنا بأي تفاصيل على الإطلاق حول نطاق عقد مشروع Nimbus، ناهيك عن تهدئة مخاوفي حول كيفية قيام Google بتوفير التكنولوجيا للحكومة والجيش الإسرائيليين (كلاهما يرتكبان انتهاكات جسيمة لحقوق الإنسان ضد فلسطينيون يوميًا) مع التمسك بالالتزامات الأخلاقية التي تعهدت بها الشركة لموظفيها والجمهور. وأضافت: "انضممت إلى Google للترويج للتكنولوجيا التي تجمع المجتمعات معًا وتحسن حياة الناس، وليس لخدمة حكومة متهمة بارتكاب جريمة الفصل العنصري من قبل منظمتي حقوق الإنسان الرائدين في العالم".

نشرت شركات التكنولوجيا المترامية الأطراف مواثيق أخلاقية للذكاء الاصطناعي لدحض النقاد الذين يقولون إن منتجاتهم المتزايدة القوة تُباع دون رادع ودون إشراف. غالبًا ما يجادل نفس النقاد بأن المستندات هي شكل من أشكال "غسل الأخلاقيات" - وهي تعهدات ذاتية التنظيم بلا أسنان ولا تقدم سوى مظهر المتورط، مشيرين إلى أمثلة مثل البنود الواردة في عقد إسرائيل مع Google التي تمنع الشركة من إغلاق منتجاتها . قال سادوفسكي، الباحث في جامعة موناش: "الطريقة التي تقيّد بها "إسرائيل" مزودي الخدمات من خلال هذا العطاء وهذا العقد، أشعر أن هذا سابقة في عمليات شراء التكنولوجيا".

بالنسبة إلى سادوفسكي، لا يهم كثيرًا ما إذا كانت Google تؤمن بما تروج له حول الذكاء الاصطناعي أو أي تقنية أخرى. ما تبيعه الشركة، في النهاية، ليس مجرد برمجيات، بل قوة. وسواء كانت "إسرائيل" والولايات المتحدة اليوم أو حكومة أخرى غدًا، يقول سادوسكي، فإن بعض التقنيات تضخّم ممارسة السلطة إلى حد أن استخدامها من قبل دولة ذات سجل حقوقي خالٍ من الشوائب لن يوفر سوى القليل من الطمأنينة. وقال: "امنحهم هذه التقنيات، وانظر ما إذا كانوا لا يميلون لاستخدامها بطرق شريرة ومروعة حقًا". وتابع: "هذه ليست تقنيات مجرد أنظمة استخبارات محايدة، إنها تقنيات تتعلق في النهاية بالمراقبة والتحليل والسيطرة".

--------------------- 

العنوان الأصلي: DOCUMENTS REVEAL ADVANCED AI TOOLS GOOGLE IS SELLING TO ISRAEL

الكاتب:  Sam Biddle

المصدر:  The Intercept

التاريخ: 24 تموز/يوليو 2022

 

انشر عبر
المزيد