قامت السلطات في الولايات المتحدة مؤخرًا بالقلق من قدرات خدمات الذكاء الاصطناعي في توجيه المستخدمين على إنشاء أسلحة بيولوجية. ظهر هذا القلق بعد تجربة أجراها علماء الكيمياء الحيوية باستخدام الشات بوت كلود، الذي قدم التوجيهات بشأن استخدام الجراثيم في الصواريخ أو إصابة الأفراد بطرق غير تقليدية.
قبل عام، اقتربت شركة Anthropic بدعم من Amazon وGoogle من خبير أمن الحياة الدقيقة روكو كازاجراندي لتقييم “الإمكانات الشريرة” لشات بوتهم كلود. وكانت الشركة، التي تأسست من قبل موظفين سابقين في OpenAI، قلقة بشكل خاص بشأن مجال البيولوجيا وإمكانية شات بوتات مثل كلود في تعليم المستخدمين “التسبب في الأذى”.
أجرى كازاجراندي، بالتعاون مع فريق من الخبراء في علم الأحياء الدقيقة وعلم الفيروسات، اختبارًا لشات بوت كلود لأكثر من 150 ساعة عن طريق التظاهر بأنهم “إرهابيون حيويون”. كشفت التجربة عن قدرة كلود على مساعدة المستخدمين بنية حسنة، من خلال تقديم استراتيجيات لاستخدام الجراثيم في الصواريخ بشكل فعال واقتراح ظروف جوية مثلى للهجوم.
أثارت النتائج اعتبارات جدية داخل إدارة بايدن بشأن التهديدات الحيوية المرتبطة بتطورات الذكاء الاصطناعي. وقد اتخذت خطوات من قبل الشركات الكبرى لتقييم المخاطر الكبيرة في مجال الدفاع عن النفس الحيوي، مما أدى إلى فرض ضوابط أشد على الأبحاث الممولة من الدولة في مجال الجينوم الاصطناعي.
في حين يُجادل البعض من أجل زيادة الرقابة الحكومية، يعتقد آخرون أن السلطات يجب أن تفرض تشريعات أشد على شركات الذكاء الاصطناعي لضمان المساءلة. ويسلط هذا التحرك نحو التوعية بالأمان الحيوي الضوء على التطور المستمر للتكنولوجيا والحاجة الملحة للابتكار المسؤول.