Claude Mythos: perché Anthropic ha bloccato il modello AI ritenuto troppo pericoloso
Anthropic ha sviluppato un nuovo modello, Claude Mythos, ma ha deciso di non rilasciarlo perché ritenuto troppo pericoloso. Scopri cosa.
Anthropic ha sviluppato un nuovo modello, Claude Mythos, ma ha deciso di non rilasciarlo perché ritenuto troppo pericoloso. Scopri cosa.
La società di intelligenza artificiale Anthropic ha deciso di non rilasciare al pubblico il suo nuovo modello, Claude Mythos, perché ritenuto troppo pericoloso. Questa mossa senza precedenti solleva importanti questioni sulla sicurezza e l’etica nello sviluppo dell’IA e segna un nuovo capitolo nella competizione con rivali come OpenAI, che avrebbe già pronta una contromisura. La decisione di Anthropic, emersa il 13 maggio, non riguarda un prodotto difettoso ma una tecnologia così avanzata da essere considerata un rischio se resa accessibile a tutti. L’evento costringe l’intero settore a confrontarsi con un dilemma: fino a che punto spingere le capacità dei sistemi di intelligenza artificiale prima che i potenziali danni superino i benefici?
Claude Mythos è l’ultima evoluzione dei modelli linguistici di grandi dimensioni (LLM) sviluppati da Anthropic, una delle aziende leader nel campo dell’intelligenza artificiale, nota per il suo focus sulla sicurezza. A differenza dei suoi predecessori come la famiglia di modelli Claude 3, Mythos non sarà integrato in prodotti o reso disponibile tramite API per gli sviluppatori. La società ha preso la decisione di bloccarne la distribuzione a causa di capacità non specificate che lo renderebbero ‘troppo pericoloso’.
Questa scelta rappresenta un unicum nel settore. Finora i laboratori di ricerca hanno sempre rilasciato, in forme più o meno controllate, i loro modelli più potenti. La mossa di Anthropic suggerisce che Mythos abbia raggiunto un livello di autonomia o di abilità in compiti sensibili tale da rendere imprevedibili o incontrollabili le sue possibili applicazioni malevole. Sebbene l’azienda non abbia fornito dettagli tecnici la notizia ha immediatamente acceso il dibattito sulla necessità di protocolli di sicurezza più stringenti per lo sviluppo di IA di frontiera.
L’annuncio ha coinciso, forse casualmente, con alcuni problemi tecnici registrati dalla piattaforma Claude lo stesso giorno, il 13 maggio. Tuttavia le fonti non collegano direttamente i due eventi, suggerendo che la decisione su Mythos sia strategica e legata alla natura stessa del modello, non a un malfunzionamento temporaneo.
Uno degli aspetti che rende il modello Claude Mythos pericoloso sembra essere la sua eccezionale abilità nel campo della cybersicurezza. Un’analisi comparativa pubblicata sul blog dell’esperto di sicurezza Bruce Schneier ha messo in luce come un modello concorrente di OpenAI, GPT-5.5, sia altrettanto efficace di Mythos nell’individuare vulnerabilità all’interno di codice e sistemi informatici. Questa capacità, sebbene utile per scopi difensivi, diventa un’arma a doppio taglio.
Un sistema AI in grado di scoprire autonomamente nuove falle di sicurezza (i cosiddetti ‘zero-day exploits’) potrebbe essere utilizzato per automatizzare attacchi informatici su larga scala, rendendoli più veloci, sofisticati e difficili da contrastare. Il timore è che una tecnologia del genere possa abbassare drasticamente la soglia di competenze necessarie per compiere attacchi complessi, mettendo a rischio infrastrutture critiche, aziende e dati personali.
La decisione di Anthropic di non rilasciare il modello può essere quindi interpretata come una misura preventiva per evitare che uno strumento così potente finisca nelle mani sbagliate. Questo evidenzia la natura ‘dual-use’ di queste tecnologie: create per risolvere problemi, ma facilmente convertibili in strumenti per crearne di nuovi e più gravi.
La notizia su Claude Mythos non è rimasta senza reazioni. La principale concorrente di Anthropic, OpenAI, ha risposto annunciando un proprio modello di capacità paragonabili, chiamato Daybreak. Secondo quanto riportato da Repubblica, Daybreak sarebbe la contromossa strategica di OpenAI per dimostrare di essere al passo con gli sviluppi della ricerca, pur gestendo i rischi associati.
Questo botta e risposta segna un’accelerazione nella competizione tra i due colossi dell’IA. Non si tratta più solo di rilasciare prodotti migliori per il mercato ma di raggiungere nuove frontiere tecnologiche, anche quelle considerate rischiose. La strategia di OpenAI sembra essere diversa da quella di Anthropic: invece di nascondere il modello l’azienda potrebbe scegliere di studiarlo in un ambiente controllato o di rilasciarne versioni depotenziate, in linea con il suo approccio di ‘iterative deployment’ (rilascio iterativo).
L’episodio di Claude Mythos è più di una semplice notizia tecnologica; è un campanello d’allarme per l’intera società. La decisione di un’azienda di auto-censurare la propria tecnologia più avanzata per motivi di sicurezza segnala che abbiamo raggiunto un punto di svolta. La potenza dei modelli di intelligenza artificiale sta crescendo a un ritmo tale che gli stessi creatori iniziano a temerla.
Questo evento potrebbe accelerare la discussione sulla regolamentazione dell’IA a livello globale. Se le aziende stesse ammettono di non poter garantire un uso sicuro delle loro creazioni, diventa indispensabile un intervento esterno da parte di governi e organismi internazionali per definire regole, standard di sicurezza e meccanismi di supervisione. Il dibattito non è più se regolare, ma come e con quale urgenza.
Inoltre introduce un nuovo paradigma di responsabilità per gli sviluppatori. D’ora in poi la domanda non sarà solo ‘possiamo costruirlo?’ ma anche ‘dobbiamo costruirlo?’. La sicurezza e l’allineamento etico dell’IA non sono più argomenti secondari, ma diventano il fulcro stesso della ricerca e dello sviluppo.
Condividi l’articolo sui canali principali oppure copia il link in un click.