Anthropic et OpenAI restreignent la diffusion de leurs modèles d’IA les plus performants en cybersécurité, ils pourraient devenir de véritables menaces entre de mauvaises mains… ou s’ils étaient copiés

Anthropic et OpenAI limitent la diffusion de leurs derniers modèles d’IA spécialisés en cybersécurité par crainte d’usages malveillants et de détournements. L’objectif est de les réserver à des acteurs ciblés, tout en se protégeant aussi contre les risques de copie et d’appropriation.

Aux États-Unis, un projet de loi soutenu par OpenAI pourrait exonérer les géants de l’IA de toute responsabilité si leurs outils entraînent des morts en masse ou produisent une catastrophe économique

OpenAI a apporté son soutien à un projet de loi débattu dans l’État de l’Illinois. Le texte entend protéger les laboratoires d’IA de toute responsabilité civile dans les cas où leurs modèles seraient impliqués dans des catastrophes majeures. Une prise de position qui relance le débat sur la régulation d’un secteur très mal encadré.

Après les hallucinations, les IA de pointe médicales souffrent d’un nouveau travers, l’effet Mirage: elles construisent des diagnostics à partir de données qui ne leur ont jamais été fournies

Des chercheurs de l’Université de Stanford ont découvert (et nommé) l’effet Mirage des IA. Ces dernières, de GPT-5 d’OpenAI à Claude Opus 4.5 d’Anthropic en passant par Gemini 3 Pro de Google, arrivent ainsi à livrer un diagnostic médical avec assurance à partir d’éléments visuels qu’elles ont… inventés.

Porc-épic tombé du plafond, épreuves façon “Koh-Lanta” et gastro fulgurante: comment le séminaire d’entreprise de Plex a viré au chaos… pourtant fédérateur

Partis chercher la cohésion au soleil, 120 salariés de la plateforme de gestion de fichiers multimédia Plex ont vécu une semaine hors norme. Entre gastro foudroyante, épreuves absurdes, logistique défaillante et incidents improbables, ce voyage s’est transformé en aventure aussi chaotique que mémorable.