ماذا سيحدث عندما يصبح الذكاء الاصطناعي هو الهاكر هل سيصبح الذكاء الاصطناعي بهذا القدر من التطور ليوثر على حياه البشر.
على مدار العامين الماضيين ، كان الباحث والتقني الشهير بروس شناير يبحث في كيفية اختراق الأنظمة المجتمعية ، وتحديداً قواعد الأسواق المالية ، والقوانين ، وقانون الضرائب. قاده ذلك إلى فحصه الأخير للعواقب المحتملة غير المقصودة للذكاء الاصطناعي على المجتمع: كيف يمكن لأنظمة الذكاء الاصطناعي نفسها ، والتي يشير إليها باسم "أنظمة الذكاء الاصطناعي" ، أن تتطور بحيث تسيء استخدام الأنظمة المجتمعية بشكل تلقائي وغير مقصود.
يقول: "إن الذكاء الاصطناعي هو الهكر" ، بدلًا من اختراق الهاكر لأنظمة الذكاء الاصطناعي.
سيناقش شناير بحثه عن قراصنة الذكاء الاصطناعي في خطاب رئيسي يوم الاثنين في مؤتمر RSA لعام 2021 ، والذي يُعقد عبر الإنترنت ، بسبب الوباء ، وليس شخصيًا في سان فرانسيسكو. يعتمد موضوع الذكاء الاصطناعي على مقال كتبه مؤخرًا لمشروع Cyber Project ومجلس الاستخدام المسؤول للذكاء الاصطناعي في مركز Belfer للعلوم والشؤون الدولية في كلية هارفارد كينيدي.
السؤال الأساسي الذي يطرحه شناير هو: ماذا لو تمكنت أنظمة الذكاء الاصطناعي من اختراق الأنظمة الاجتماعية والاقتصادية والسياسية على مستوى الكمبيوتر وسرعته ونطاقه بحيث لا يستطيع البشر اكتشافه في الوقت المناسب ويعانون من العواقب؟
إنه المكان الذي تتطور فيه أنظمة الذكاء الاصطناعي إلى "العملية الإبداعية للعثور على المتسللين".
يقول: "إنهم يفعلون ذلك بالفعل في البرامج ، ويعثرون على نقاط ضعف في كود الكمبيوتر. إنهم لا يجيدون ذلك ، لكن في النهاية سيتحسنون [بينما] يظل البشر على حالهم" في قدرات اكتشاف نقاط الضعف لديهم.
يتوقع شناير أنه في غضون أقل من عقد من الآن ، ستتمكن أنظمة الذكاء الاصطناعي من "التغلب" على البشر في مسابقات قرصنة العلم ، مشيرًا إلى مسابقة DEFCON في عام 2016 عندما جاء فريق الذكاء الاصطناعي الوحيد المسمى Mayhem في النهاية ضد الجميع. فرق بشرية. ذلك لأن تقنية الذكاء الاصطناعي ستتطور وتتفوق على القدرات البشرية.
يقول شناير إنه ليس هناك الكثير من "اقتحام" أنظمة الذكاء الاصطناعي ، ولكن الذكاء الاصطناعي يبتكر حلوله الخاصة. يقول: "يأتي الذكاء الاصطناعي مع اختراق ونقطة ضعف ، ثم ينظر إليه البشر ويقولون ،" هذا جيد "، ويستخدمونه كوسيلة لكسب المال ، كما هو الحال مع صناديق التحوط في القطاع المالي.
المفارقة هنا ، بالطبع ، هي أن الذكاء الاصطناعي يبدأ بالمدخلات البشرية والبرمجة. وبغض النظر عن مقارنات فرانكشتاين ، فإن المشكلة الأساسية هي أن الذكاء الاصطناعي لا يمتلك نفس الوظائف الإدراكية البشرية مثل التعاطف أو فحص القناة الهضمية لمعرفة مكان رسم الخط. يلاحظ شناير أنه على الرغم من وجود الكثير من الأبحاث حول دمج السياق والأخلاق والقيم في برامج الذكاء الاصطناعي ، إلا أنها ليست وظيفة مضمنة لأنظمة الذكاء الاصطناعي الحالية.
ومع ذلك ، كما يقول ، سيوظف البشر الذكاء الاصطناعي لإيجاد ثغرات في قوانين الضرائب ، مثل قيام شركة محاسبة كبرى بذلك لإيجاد "مراوغة ضريبية جديدة لبيعها لعملائها". لذلك من غير المحتمل أن تقوم الشركات المالية "ببرمجة" القواعد التي تحبط قدرتها على استثمار المعرفة بالذكاء الاصطناعي.
يتمثل الخطر الأكبر في أن أنظمة الذكاء الاصطناعي سوف تجد طريقة للالتفاف على قاعدة دون أن يعرف البشر - "أن الذكاء الاصطناعي سوف يكتشف شيئًا من شأنه اختراق القواعد ولن ندرك ذلك" ، كما يقول شناير.
يشير شناير إلى فضيحة فولكس فاجن في عام 2015 ، عندما ضُبطت شركة صناعة السيارات وهي تغش في اختبارات مستوى التحكم في الانبعاثات لطرازات سياراتها بعد أن قام المهندسون ببرمجة أنظمة كمبيوتر السيارات لتفعيل الحد من الانبعاثات فقط أثناء الاختبارات ، وليس في عملياتها العادية.
يقول: "هناك كان البشر يهاجمون القواعد" وليس الذكاء الاصطناعي نفسه ، لكنه مثال جيد لما يمكن أن يفعله الذكاء الاصطناعي في النهاية لخداع نظام إذا ترك دون رادع لتعلم طرق للتغلب عليه.
في مقالته ، "The Coming AI Hackers" ، يصف شناير الأمر بهذه الطريقة: "إذا طلبت منك تصميم برنامج التحكم في محرك السيارة لزيادة الأداء إلى أقصى حد أثناء اجتياز اختبارات التحكم في الانبعاثات ، فلن تصمم البرنامج للغش دون فهم بأنك كنت تغش. هذا ببساطة ليس صحيحًا بالنسبة للذكاء الاصطناعي ؛ إنه لا يفهم المفهوم المجرد للغش. سوف يفكر "خارج الصندوق" ببساطة لأنه لن يكون لديه تصور عن الصندوق ، أو حدود الحلول البشرية الحالية. أو الأخلاق. لن يفهم أن حل فولكس فاجن يضر بالآخرين ، أو يقوض نية اختبارات التحكم في الانبعاثات ، أو أنه يخالف القانون ".
دعوة للعمل
يعترف شناير بأن مفهوم الذكاء الاصطناعي بصفته قراصنة "تخميني للغاية" في الوقت الحالي ، لكنه مشكلة تحتاج إلى معالجة.
يقول: "نحن بحاجة إلى التفكير في هذا الأمر". "ولست متأكدًا من أنه يمكنك إيقاف هذا. تعتمد سهولة حدوث [اختراق أنظمة الذكاء الاصطناعي] هذه كثيرًا على المجال [محل السؤال]: كيف يمكننا تقنين قواعد النظام؟"
المفتاح هو تسخير أنظمة الذكاء الاصطناعي للدفاع ، مثل البحث عن جميع نقاط الضعف وإصلاحها في برنامج ما قبل إصداره.
يقول: "كنا بعد ذلك نعيش في عالم كانت فيه ثغرات البرامج شيئًا من الماضي".
الجانب السلبي هو أن الفترة الانتقالية ستكون معرضة للخطر: فقد تكون التعليمات البرمجية القديمة أو التي تم إصدارها بالفعل معرضة لخطر الهجوم من قبل أدوات الذكاء الاصطناعي التي يساء استخدامها من قبل الخصوم ، كما يقول.
يقول إن الخطر يتمثل في اختراق أنظمة الذكاء الاصطناعي لأنظمة الذكاء الاصطناعي الأخرى في المستقبل ، ويعاني البشر من التداعيات.
تطورت أحدث أبحاث الذكاء الاصطناعي التي أجراها شناير من دراسته حول كيفية تطبيق عقلية القراصنة ومهاراتهم على تأمين الأنظمة المجتمعية ، والتي قدمها لأول مرة في مؤتمر RSA لعام 2020 في سان فرانسيسكو. هذا المفهوم ، الذي صاغه "مجتمع القرصنة" ، يعني أن المتسللين الأخلاقيين يساعدون في إصلاح قانون الضرائب والتشريعات الأمريكية لتجنب الثغرات غير المقصودة أو المتعمدة ، على سبيل المثال.
تتلخص فكرته الكبيرة في هذا: "هل يمكننا اختراق المجتمع والمساعدة في تأمين الأنظمة التي يتكون منها المجتمع؟"
في غضون ذلك ، راقب مجتمع القرصنة على أنظمة الذكاء الاصطناعي.
"أجهزة الكمبيوتر أسرع بكثير من الأشخاص. قد يتم ضغط العملية البشرية التي قد تستغرق شهورًا أو سنوات لتصل إلى أيام أو ساعات أو حتى ثوانٍ. ما الذي قد يحدث عندما تغذي AI قانون الضرائب الأمريكي بالكامل وتطلب منه معرفة كل الطرق التي يمكن بها تقليل مقدار الضرائب المستحقة؟ " كتب في مقالته.
You must be logged in to post a comment.