Anthropic et OpenAI restreignent la diffusion de leurs modèles d’IA les plus performants en cybersécurité, ils pourraient devenir de véritables menaces entre de mauvaises mains… ou s’ils étaient copiés

Anthropic et OpenAI limitent la diffusion de leurs derniers modèles d’IA spécialisés en cybersécurité par crainte d’usages malveillants et de détournements. L’objectif est de les réserver à des acteurs ciblés, tout en se protégeant aussi contre les risques de copie et d’appropriation.

Aux États-Unis, un projet de loi soutenu par OpenAI pourrait exonérer les géants de l’IA de toute responsabilité si leurs outils entraînent des morts en masse ou produisent une catastrophe économique

OpenAI a apporté son soutien à un projet de loi débattu dans l’État de l’Illinois. Le texte entend protéger les laboratoires d’IA de toute responsabilité civile dans les cas où leurs modèles seraient impliqués dans des catastrophes majeures. Une prise de position qui relance le débat sur la régulation d’un secteur très mal encadré.