تتنازع شركة OpenAI حالياً ادعاءات بانتهاكها قانون سلامة الذكاء الاصطناعي الذي صدر مؤخراً في كاليفورنيا. ينبع هذا الجدل من إطلاق أحدث نموذج للذكاء الاصطناعي الخاص بها، والذي صنفته الشركة نفسها على أنه ينطوي على مخاطر "عالية". يزعم النقاد ومجموعة مراقبة أن OpenAI لم تلتزم بإجراءات السلامة الموعودة، على الرغم من هذا التقييم الداخلي للمخاطر. تشير هذه الاتهامات إلى احتمال عدم الامتثال للإطار التنظيمي الجديد للولاية، المصمم لضمان التطوير المسؤول لتقنيات الذكاء الاصطناعي. يسلط النزاع الضوء على التوترات المتزايدة بين الابتكار السريع في مجال الذكاء الاصطناعي والطلب المتزايد على بروتوكولات السلامة القوية والرقابة التنظيمية. يؤكد هذا الوضع التحديات التي تواجه عمالقة التكنولوجيا في التعامل مع المشهد القانوني المتطور المتعلق بأنظمة الذكاء الاصطناعي المتقدمة.