ما هي المخاطر التي قد تحدث بسبب تقنيات الذكاء الاصطناعي إذا وصلت إلى الأيدي الخاطئة؟

ما هي المخاطر التي قد تحدث بسبب تقنيات الذكاء الاصطناعي إذا وصلت إلى الأيدي الخاطئة؟

 ذكرت وكالة رويترز يوم الأربعاء أن إدارة الرئيس الأميركي جو بايدن تستعد لفتح جبهة جديدة في جهودها لحماية التكنولوجيا الذكية المتقدمة في الولايات المتحدة من التهديدات الصينية والروسية، من خلال خطط أولية لتأمين تطور الذكاء الاصطناعي.

ويخشى الباحثون في الحكومة والقطاع الخاص من أن الأعداء قد يستغلون هذه التقنيات المتقدمة، التي تقوم بتحليل كميات كبيرة من البيانات والصور لتلخيص المعلومات وإنتاج المحتوى، في شن هجمات رقمية قوية أو حتى في تطوير أسلحة بيولوجية فعالة.

ما هي أهم التهديدات التي يمثلها الذكاء الاصطناعي؟

1) التزييف العميق والتضليل المعلوماتي

- يتجلى التزييف العميق بشكل واضح على منصات التواصل الاجتماعي، حيث يتم الخلط بين الحقيقة والخيال في عالم السياسة الأميركية المستندة إلى التصاق الفئات.

- التزييف العميق يشير إلى مقاطع فيديو تبدو واقعية ولكنها في الواقع غير حقيقية، وتم إنشاؤها بواسطة خوارزميات الذكاء الاصطناعي المدربة على مقاطع فيديو كثيرة متداولة عبر الإنترنت.

- على الرغم من توفر هذه التقنية منذ سنوات، إلا أن قدراتها تطورت بشكل كبير خلال العام الماضي بفضل مجموعة من الأدوات الجديدة للذكاء الاصطناعي مثل أداة "ميديا جيرني" التي تجعل إنشاء مقاطع فيديو مزيفة سهلاً ورخيصًا.

- وفقًا لتقرير صادر في مارس، يُظهر أن شركات مثل "أوبن إيه.آي" و"مايكروسوفت" يمكنها استخدام أدوات الذكاء الاصطناعي لإنشاء صور قد تروج لمعلومات مضللة تتعلق بالانتخابات والتصويت، على الرغم من وجود سياسات لمكافحة إنشاء المحتوى المضلل في كلتا الشركتين.

- بعض حملات التضليل المعلوماتي تستغل ببساطة قدرة الذكاء الاصطناعي على تقديم المقالات الإخبارية الحقيقية كوسيلة لنشر المعلومات الزائفة.

- وفقًا لتقييم وزارة الأمن الداخلي الأميركية للتهديدات الداخلية لعام 2024، تم رصد نشر موقع إخباري صيني يستخدم منصة ذكاء اصطناعي لترويج معلومات زائفة تتعلق بإدارة الولايات المتحدة لمختبر في كازاخستان لتصنيع أسلحة بيولوجية.

- خلال فعالية للذكاء الاصطناعي في واشنطن، أكد جيك سوليفان مستشار الأمن القومي بالبيت الأبيض أن هذه المشكلة تجمع بين قدرة الذكاء الاصطناعي و" نية جهات رسمية وغير رسمية للاستفادة من التضليل المعلوماتي على نطاق واسع".

2) الأسلحة البيولوجية

  • تتزايد القلق في مجتمع المخابرات ومراكز البحوث والسلك الأكاديمي في الولايات المتحدة بشأن التهديدات التي تشكلها الجهات الأجنبية العدائية التي تمتلك القدرة على استخدام التكنولوجيا الذكاء الاصطناعي المتقدمة.
  • وفقًا للباحثين في شركة (غريفون ساينتيفيك) ومؤسسة (راند) البحثية، يمكن لنماذج الذكاء الاصطناعي المتقدمة أن تساهم في إنتاج أسلحة بيولوجية.
  • أظهرت دراسة لشركة "غريفون" كيف يمكن للجهات العدائية استخدام النماذج اللغوية الكبيرة لإلحاق الضرر في مجال علوم الحياة، وأشارت إلى أنها قادرة على تزويد المعلومات التي يمكن أن تدعم إنشاء سلاح بيولوجي من خلال تقديم معلومات دقيقة ومفصلة في كل خطوة من خطوات هذا المسار.
  • تستخدم النماذج اللغوية الكبيرة برامج كمبيوتر تعتمد على مجموعات كبيرة من النصوص لتوليد إجابات على الاستفسارات.
  • وخلصت شركة "غريفون" إلى أن أي نموذج لغوي كبير يمكن أن يقدم معلومات متقدمة تفوق مستوى الماجستير لحل المشكلات التي تطرأ خلال العمل على فيروس قادر على نشر وباء.
  • بحسب مؤسسة (راند) البحثية، فإن النماذج اللغوية الكبيرة يمكن أن تسهم في التخطيط والتنفيذ لهجمات بيولوجية، وأشارت إلى أن أي نموذج لغوي كبير يمكن أن يقترح، على سبيل المثال، أساليب لنثر مادة البوتوكس السامة في الهواء.

3) الأسلحة الرقمية

في تقييمها للتهديدات الداخلية لعام 2024، أفادت وزارة الأمن الداخلي الأميركية بأن الجهات الرقمية قد تستخدم الذكاء الاصطناعي في تطوير أدوات جديدة لشن هجمات رقمية أكثر فاعلية وسرعة وصعوبة في التتبع على البنية التحتية الحساسة، مثل خطوط أنابيب النفط والغاز والسكك الحديدية.
وأشارت الوزارة إلى أن الصين وجهات معادية أخرى تعمل على تطوير تكنولوجيا الذكاء الاصطناعي التي قد تهدد الدفاعات الرقمية الأميركية، بما في ذلك برامج الذكاء الاصطناعي التوليدي التي تسهم في هجمات البرمجيات الخبيثة.
وفي تقرير بفبراير، كشفت "مايكروسوفت" عن تعقبها لجماعات تسلل إلكتروني تابعة للحكومتين الصينية والكورية الشمالية، بالإضافة إلى المخابرات الحربية الروسية والحرس الثوري الإيراني، حيث كانت تحاول تنفيذ هجماتها عبر الإنترنت باستخدام نماذج لغوية كبيرة.
تعليقات