الحجر البني » مقالات معهد براونستون » تمول الحكومة أدوات الذكاء الاصطناعي للمراقبة والرقابة على الإنترنت بالكامل
معهد براونستون - تمول الحكومة أدوات الذكاء الاصطناعي للمراقبة والرقابة على الإنترنت بالكامل

تمول الحكومة أدوات الذكاء الاصطناعي للمراقبة والرقابة على الإنترنت بالكامل

مشاركة | طباعة | البريد الإلكتروني

انا اشعر بالخوف. خائف جدا.

لقد أصبحت المراقبة والرقابة على مستوى شبكة الإنترنت، والتي أصبحت ممكنة بفضل القوة الحسابية الهائلة للذكاء الاصطناعي (AI)، موجودة هنا.

هذه ليست ديستوبيا مستقبلية. إنه يحدث الآن.

تعمل الوكالات الحكومية مع الجامعات والمنظمات غير الربحية لاستخدام أدوات الذكاء الاصطناعي لمراقبة ومراقبة المحتوى على الإنترنت.

وهذا ليس سياسيا أو حزبيا. وهذا لا يتعلق بأي رأي أو فكرة معينة. 

 ما يحدث هو أن أداة قوية بما فيه الكفاية لمراقبة كل ما يقال ويفعل على شبكة الإنترنت (أو أجزاء كبيرة منه) أصبحت متاحة للحكومة لمراقبتنا جميعا، في كل وقت. وبناء على هذا الرصد، يصبح بوسع الحكومة ــ وأي منظمة أو شركة تتعاون معها الحكومة ــ أن تستخدم نفس الأداة لقمع وإسكات وإغلاق أي خطاب لا ترغب فيه. 

ولكن هذا ليس كل شيء. وباستخدام نفس الأداة، تستطيع الحكومة وشركاؤها من القطاعين العام والخاص والمنظمات غير الحكومية (مثل منظمة الصحة العالمية، أو شركة مونسانتو) أيضا إغلاق أي نشاط مرتبط بالإنترنت. الخدمات المصرفية، والشراء، والبيع، والتدريس، والتعلم، والترفيه، والتواصل مع بعضكم البعض - إذا كان الذكاء الاصطناعي الذي تسيطر عليه الحكومة لا يعجبه ما تقوله أنت (أو أطفالك!) في تغريدة أو بريد إلكتروني، فيمكنه إيقاف كل ذلك من أجلك. أنت. 

نعم، لقد رأينا هذا على نطاق محلي ومسيّس جدًا، على سبيل المثال، سائقي الشاحنات الكنديين

ولكن إذا اعتقدنا أن هذا النوع من النشاط لا يمكن أن يحدث، أو لن يحدث على نطاق وطني (أو حتى على نطاق عالمي)، فيتعين علينا أن نستيقظ الآن وندرك أنه يحدث، وقد لا يكون من الممكن إيقافه.

تظهر الوثائق الجديدة أن الذكاء الاصطناعي الممول من الحكومة مخصص للرقابة على الإنترنت

اللجنة الفرعية المختارة في مجلس النواب الأمريكي المعنية بتسليح الحكومة الفيدرالية تم تشكيلها في يناير 2023 “للتحقيق في الأمور المتعلقة بجمع وتحليل ونشر واستخدام المعلومات عن المواطنين الأمريكيين من قبل وكالات السلطة التنفيذية، بما في ذلك ما إذا كانت هذه الجهود غير قانونية أو غير دستورية أو غير أخلاقية”.

ومن المؤسف أن عمل اللجنة، حتى من قِبَل أعضائها، يُنظَر إليه باعتباره عملاً سياسياً إلى حد كبير: إذ يقوم المشرعون المحافظون بالتحقيق فيما يعتبرونه إسكات الأصوات المحافظة من قِبَل الهيئات الحكومية ذات الميول الليبرالية. 

ومع ذلك، فقد كشفت هذه اللجنة، في تحقيقاتها، عن بعض الوثائق المذهلة المتعلقة بمحاولات الحكومة فرض الرقابة على خطاب المواطنين الأمريكيين. 

ولهذه الوثائق آثار حاسمة ومرعبة على المجتمع بأكمله.

في التقرير المؤقت للجنة الفرعية بتاريخ 5 فبراير 2024تظهر الوثائق أن المجموعات الأكاديمية وغير الربحية تطرح على وكالة حكومية خطة لاستخدام "خدمات التضليل" التي تعتمد على الذكاء الاصطناعي لفرض رقابة على المحتوى على منصات الإنترنت.

على وجه التحديد، تشرح جامعة ميشيغان لمؤسسة العلوم الوطنية (NSF) أن الأدوات التي تعمل بالذكاء الاصطناعي والتي تمولها NSF يمكن استخدامها لمساعدة منصات وسائل التواصل الاجتماعي على أداء أنشطة الرقابة دون الحاجة إلى اتخاذ قرارات فعلية بشأن ما يجب فرض رقابة عليه.

وإليك كيفية تصور العلاقة في تقرير اللجنة الفرعية:

فيما يلي اقتباس محدد معروض في تقرير اللجنة الفرعية. يأتي ذلك من "ملاحظات المتحدث من العرض الأول الذي قدمته جامعة ميشيغان إلى مؤسسة العلوم الوطنية (NSF) حول أداة WiseDex التي تمولها NSF والمدعومة بالذكاء الاصطناعي." الملاحظات موجودة في ملف اللجنة.

تساعد خدمة المعلومات المضللة التي نقدمها صانعي السياسات في المنصات الذين يريدون... إلقاء المسؤولية عن الأحكام الصعبة على شخص خارج الشركة... من خلال إضفاء الطابع الخارجي على المسؤولية الصعبة المتمثلة في الرقابة.

وهذا بيان استثنائي على العديد من المستويات:

  1. فهو يساوي بوضوح بين "خدمة المعلومات المضللة" والرقابة. 

وهذه معادلة حاسمة، لأن الحكومات في جميع أنحاء العالم تتظاهر بمكافحة المعلومات المضللة الضارة في حين أنها تفعل ذلك في الواقع تمرير فواتير الرقابة الضخمة. أعلن المنتدى الاقتصادي العالمي "المعلومات الخاطئة والمعلومات المضللة" هي "المخاطر العالمية الأكثر خطورة" في العامين المقبلين، وهو ما يعني أن أكبر جهودهم ستتجه نحو الرقابة.

عندما يذكر أحد المقاولين الحكوميين صراحة أنه يبيع "خدمة معلومات مضللة" تساعد منصات الإنترنت على "إضفاء الطابع الخارجي على الرقابة" ــ يتم الاعتراف بأن المصطلحين قابلان للتبادل.

  1. ويشير إلى الرقابة باعتبارها "مسؤولية". 

بمعنى آخر، يفترض أن جزءًا مما يجب أن تفعله المنصات هو الرقابة. عدم حماية الأطفال من المحتالين جنسيًا أو المواطنين الأبرياء من المعلومات المضللة - مجرد رقابة واضحة وبسيطة.

  1. وينص على أن دور الذكاء الاصطناعي هو "إضفاء الطابع الخارجي" على مسؤولية الرقابة.

لا ترغب منصات التكنولوجيا في اتخاذ قرارات رقابية. تريد الحكومة اتخاذ تلك القرارات لكنها لا تريد أن يُنظر إليها على أنها تفرض رقابة. تسمح أدوات الذكاء الاصطناعي للمنصات بـ "إخراج" قرارات الرقابة والحكومة بإخفاء أنشطتها الرقابية.

كل هذا ينبغي أن ينهي الوهم بأن ما تسميه الحكومات في جميع أنحاء العالم "مكافحة المعلومات المضللة وخطاب الكراهية" ليس رقابة مباشرة.

ماذا يحدث عندما يتم تنفيذ الرقابة على الذكاء الاصطناعي بالكامل؟

ومع العلم أن الحكومة تدفع بالفعل مقابل أدوات الرقابة على الذكاء الاصطناعي، علينا أن نفكر في ما يستلزمه ذلك.

لا حدود للقوى العاملة: وكما يشير تقرير اللجنة الفرعية، فإن القيود المفروضة على الرقابة الحكومية على الإنترنت، حتى الآن، شملت أعداداً كبيرة من البشر المطلوب منهم الاطلاع على ملفات لا نهاية لها واتخاذ قرارات الرقابة. مع الذكاء الاصطناعي، بالكاد يحتاج أي إنسان إلى المشاركة، ويمكن أن تكون كمية البيانات التي يمكن مراقبتها هائلة مثل كل ما يقوله أي شخص على منصة معينة. هذه الكمية من البيانات غير مفهومة للعقل البشري الفردي.

لا يوجد أحد مسؤول: أحد الجوانب الأكثر إثارة للخوف في رقابة الذكاء الاصطناعي هو أنه عندما يقوم الذكاء الاصطناعي بذلك، لا يوجد إنسان أو منظمة - سواء كانت الحكومة، أو المنصات، أو الجامعة/المنظمات غير الربحية - المسؤول فعليًا عن الرقابة. في البداية، يقوم البشر بتغذية تعليمات أداة الذكاء الاصطناعي بشأن فئات أو أنواع اللغة التي يجب فرض الرقابة عليها، ولكن بعد ذلك تمضي الآلة قدمًا وتتخذ القرارات على أساس كل حالة على حدة بنفسها. 

عدم اللجوء إلى التظلمات: بمجرد إطلاق العنان للذكاء الاصطناعي بمجموعة من تعليمات الرقابة، فإنه سيكتسح عددًا كبيرًا من نقاط البيانات عبر الإنترنت ويطبق إجراءات الرقابة. إذا كنت ترغب في الاعتراض على إجراء رقابي على الذكاء الاصطناعي، فسيتعين عليك التحدث إلى الآلة. ربما ستوظف المنصات البشر للرد على النداءات. ولكن لماذا يفعلون ذلك، عندما يكون لديهم ذكاء اصطناعي يمكنه أتمتة تلك الاستجابات؟

لا حماية للشباب: أحد ادعاءات الرقابة الحكومية هو أننا بحاجة إلى حماية أطفالنا من المعلومات الضارة عبر الإنترنت، مثل المحتوى الذي يجعلهم يعانون من فقدان الشهية، ويشجعهم على الانتحار، ويحولهم إلى إرهابيين من داعش، وما إلى ذلك. أيضا من الاستغلال الجنسي. وهذه كلها قضايا خطيرة تستحق الاهتمام. لكنها لا تشكل خطورة على أعداد كبيرة من الشباب مثل الرقابة على الذكاء الاصطناعي.

ينطبق الخطر الذي تشكله رقابة الذكاء الاصطناعي على جميع الشباب الذين يقضون الكثير من الوقت على الإنترنت، لأنه يعني أن أنشطتهم ولغتهم عبر الإنترنت يمكن مراقبتها واستخدامها ضدهم - ربما ليس الآن، ولكن عندما تقرر الحكومة ملاحقة نوع معين للغة أو السلوك . وهذا خطر أكبر بكثير على عدد أكبر بكثير من الأطفال من الخطر الذي يشكله أي محتوى محدد، لأنه يشمل جميع الأنشطة التي يقومون بها عبر الإنترنت، ويمس كل جانب من جوانب حياتهم تقريبًا. 

فيما يلي مثال لتوضيح هذا الخطر: لنفترض أن ابنك المراهق يلعب الكثير من ألعاب الفيديو التفاعلية عبر الإنترنت. لنفترض أنه يفضل الألعاب التي صممتها الشركات الصينية. وربما يشاهد أيضًا الآخرين وهم يلعبون تلك الألعاب، ويشارك في الدردشات ومجموعات المناقشة حول تلك الألعاب، والتي يشارك فيها أيضًا الكثير من المواطنين الصينيين.

وقد تقرر الحكومة الشهر المقبل، أو العام المقبل، أن أي شخص يشارك بشكل كبير في ألعاب الفيديو المصممة في الصين يشكل خطرا على الديمقراطية. قد يؤدي ذلك إلى إغلاق حسابات ابنك على وسائل التواصل الاجتماعي أو حرمانه من الوصول إلى الأدوات المالية، مثل القروض الجامعية. وقد يتضمن ذلك أيضًا وضع علامة عليه في مواقع التوظيف أو المواعدة على أنها خطرة أو غير مرغوب فيها. قد يعني ذلك حرمانه من جواز السفر أو وضعه على قائمة المراقبة.

لقد أصبحت حياة ابنك المراهق أكثر صعوبة. أصعب بكثير مما لو تعرض لفيديو تجنيد لتنظيم داعش أو منشور تمجد الانتحار على TikTok. وهذا سيحدث على نطاق أوسع بكثير من الاستغلال الجنسي الذي تستخدمه الرقابة باعتباره حصان طروادة لتطبيع فكرة الرقابة الحكومية على الإنترنت.

خدمات الرقابة قادرة على تحقيق الدخل: يمكن نظريًا استخدام أداة الذكاء الاصطناعي المملوكة للحكومة من قبل كيان غير حكومي بإذن من الحكومة، وبمباركة المنصات التي تريد "إضفاء الطابع الخارجي" على "مسؤولية" الرقابة. لذلك، في حين أن الحكومة قد تستخدم الذكاء الاصطناعي لرصد وقمع، على سبيل المثال، المشاعر المناهضة للحرب - يمكن للشركة استخدامه لمراقبة وقمع، على سبيل المثال، المشاعر المناهضة للوجبات السريعة. يمكن للحكومة أن تجني الكثير من المال من بيع خدمات أدوات الذكاء الاصطناعي لأطراف ثالثة. يمكن للمنصات أيضًا أن تطلب التخفيض. وبالتالي، يمكن لأدوات الرقابة على الذكاء الاصطناعي أن تفيد الحكومة ومنصات التكنولوجيا والشركات الخاصة. إن الحوافز قوية للغاية، ويكاد يكون من المستحيل تصور عدم استغلالها.

هل يمكننا عكس المسار؟

لا أعرف عدد الوكالات الحكومية وعدد المنصات التي تستخدم أدوات الرقابة على الذكاء الاصطناعي. لا أعرف مدى السرعة التي يمكنهم بها التوسع.

لا أعرف ما هي الأدوات المتاحة لنا ــ بخلاف رفع مستوى الوعي ومحاولة الضغط على السياسيين ورفع الدعاوى القضائية لمنع الرقابة الحكومية وتنظيم استخدام أدوات الذكاء الاصطناعي على الإنترنت.

إذا كان لدى أي شخص أي أفكار أخرى، فهذا هو الوقت المناسب لتنفيذها.



نشرت تحت أ ترخيص Creative Commons Attribution 4.0
لإعادة الطباعة ، يرجى إعادة تعيين الرابط الأساسي إلى الأصل معهد براونستون المقال والمؤلف.

المعلن / كاتب التعليق

  • ديبي ليرمان

    ديبي ليرمان ، زميلة براونستون 2023 ، حاصلة على شهادة في اللغة الإنجليزية من جامعة هارفارد. هي كاتبة علمية متقاعدة وفنانة ممارسه في فيلادلفيا ، بنسلفانيا.

    عرض جميع المشاركات

تبرع اليوم

إن دعمك المالي لمعهد براونستون يذهب إلى دعم الكتاب والمحامين والعلماء والاقتصاديين وغيرهم من الأشخاص الشجعان الذين تم تطهيرهم وتهجيرهم مهنيًا خلال الاضطرابات في عصرنا. يمكنك المساعدة في كشف الحقيقة من خلال عملهم المستمر.

اشترك في براونستون لمزيد من الأخبار

ابق على اطلاع مع معهد براونستون