Tecnologia

Apple e Google contro il DMA: perché l’apertura dell’IA preoccupa per la privacy

Apple si unisce a Google contro le nuove regole del DMA europeo sull'intelligenza artificiale. Scopri perché le due aziende temono rischi.

5 min di lettura
Apple e Google contro il DMA: perché l’apertura dell’IA preoccupa per la privacy
apple google Intelligenza Artificiale sicurezza informatica

Apple ha deciso di schierarsi al fianco di Google contro l’UE, contestando le nuove regole sull’intelligenza artificiale previste dal Digital Markets Act (DMA). Secondo i due colossi tecnologici, le misure che impongono una maggiore apertura dei sistemi di IA potrebbero compromettere seriamente la privacy e la sicurezza degli utenti. Questa presa di posizione congiunta segna un momento cruciale nel dibattito sulla regolamentazione tecnologica e potrebbe influenzare direttamente la disponibilità e il funzionamento dei futuri servizi basati su IA in Italia e nel resto d’Europa. La disputa non è solo una questione legale tra Bruxelles e la Silicon Valley ma tocca da vicino la protezione dei dati personali di milioni di cittadini. Le aziende sostengono che le decisioni imposte dalla Commissione rischiano di favorire i malintenzionati, indebolendo le difese costruite dagli ingegneri. La battaglia è appena iniziata e il suo esito determinerà il delicato equilibrio tra innovazione, concorrenza e sicurezza nel mercato digitale europeo.

Cosa sta succedendo: Apple e Google unite contro le regole UE e il DMA

La notizia segna un’alleanza inedita tra due storici rivali. Apple ha formalmente appoggiato la posizione di Google nella controversia con la Commissione Europea riguardo al Digital Markets Act. Il DMA è una legge pensata per garantire mercati digitali più equi e aperti, imponendo obblighi specifici alle grandi piattaforme online, definite “gatekeeper”.

Fino a oggi le due aziende si sono spesso trovate su fronti opposti nelle aule dei tribunali e nelle discussioni con i regolatori. Questa volta, però, l’avversario comune è la visione europea sulla gestione dell’intelligenza artificiale. La loro opposizione si concentra su quelle norme che, nel tentativo di promuovere la concorrenza, potrebbero forzare un’apertura dei loro ecosistemi tecnologici, esponendoli a nuovi rischi.

Approfondisci anche

Il cuore del problema: l’apertura dell’IA e i rischi per la privacy

Il punto centrale della contesa riguarda la richiesta dell’UE di rendere i sistemi di intelligenza artificiale più interoperabili e meno chiusi. L’obiettivo di Bruxelles è evitare che poche aziende controllino l’intero settore, creando monopoli difficili da scalfire. Tuttavia, secondo Apple e Google, questa apertura forzata potrebbe avere effetti collaterali pericolosi.

I sistemi di IA moderni, come i modelli linguistici di grandi dimensioni (LLM), sono estremamente complessi. La loro sicurezza si basa su architetture integrate e controllate, dove ogni componente è progettato per funzionare in armonia con gli altri. Forzare l’accesso a parti di questi sistemi o imporre la condivisione di dati sensibili con terze parti potrebbe creare delle falle.

Queste vulnerabilità, sostengono le aziende, potrebbero essere sfruttate per accedere a dati personali, manipolare il comportamento dei modelli o lanciare attacchi informatici su larga scala. La protezione della privacy, quindi, diventa l’argomento principale per difendere i propri ecosistemi chiusi.

La critica delle Big Tech: “Burocrati al posto degli ingegneri. Perché Google e Apple sono unite contro il DMA

La frustrazione delle aziende tecnologiche è stata riassunta in una frase emblematica: la Commissione Europea starebbe “sostituendo il giudizio degli ingegneri con quello dei burocrati”. Questa affermazione, riportata da Macitynet, evidenzia una profonda divergenza di vedute su chi debba definire gli standard tecnici per la sicurezza informatica.

Dal punto di vista della Silicon Valley solo chi progetta e costruisce questi sistemi complessi può comprenderne appieno i rischi e le fragilità. Le decisioni su come proteggere i dati e garantire la stabilità di un modello di IA dovrebbero quindi rimanere nelle mani degli esperti tecnici. L’intervento di regolatori e funzionari, per quanto ben intenzionato, rischierebbe di imporre soluzioni generiche e inadeguate.

Questa critica solleva una questione fondamentale: fino a che punto un legislatore può e deve entrare nei dettagli tecnici di una tecnologia emergente? La risposta a questa domanda definirà non solo il futuro del DMA ma anche il rapporto tra potere pubblico e innovazione tecnologica per i prossimi anni.

Intelligenza Artificiale e sicurezza: un rischio già concreto

Le preoccupazioni di Apple e Google non sono puramente teoriche. Il legame tra intelligenza artificiale e rischi per la sicurezza è già una realtà. Come evidenziato da Techprincess, gli strumenti di IA generativa vengono sempre più utilizzati da hacker e criminali informatici per rendere i loro attacchi più efficaci e difficili da individuare.

L’IA può essere usata per scrivere email di phishing molto più convincenti, generare codice malevolo in pochi secondi o automatizzare la ricerca di vulnerabilità nei sistemi informatici. In questo scenario indebolire le difese dei sistemi di IA per ragioni di concorrenza potrebbe involontariamente offrire un vantaggio ai malintenzionati.

Questo contesto rafforza la posizione delle aziende che possono presentare la loro difesa degli ecosistemi chiusi non come una mossa anti-competitiva ma come una misura necessaria per proteggere gli utenti da minacce informatiche sempre più sofisticate e potenziate dalla stessa tecnologia che l’UE cerca di regolare.

Cosa prevede il DMA per l’intelligenza artificiale in Europa

Il Digital Markets Act (DMA) è una delle normative più importanti approvate dall’Unione Europea per regolare il potere delle grandi piattaforme digitali. Il suo scopo principale è garantire la concorrenza leale, impedendo ai cosiddetti “gatekeeper” di abusare della loro posizione dominante per svantaggiare rivali più piccoli.

Nel contesto dell’intelligenza artificiale il DMA mira a prevenire la creazione di nuovi monopoli. Le regole potrebbero includere l’obbligo per le grandi aziende di consentire a servizi di terze parti di interagire con i loro assistenti vocali, i loro motori di ricerca o i loro modelli di IA. L’idea è di creare un ecosistema più variegato, dove gli utenti abbiano più scelta e le startup più opportunità.

La sfida, come dimostra lo scontro attuale, è bilanciare questo obiettivo con la necessità di mantenere standard elevati di sicurezza e protezione dei dati. La Commissione Europea dovrà dimostrare che è possibile aprire i mercati senza aprire la porta a nuovi e più gravi rischi per i cittadini.

Condivisione

Rendi il contenuto facile da condividere

Condividi l’articolo sui canali principali oppure copia il link in un click.

Facebook WhatsApp X Telegram LinkedIn Mail

Segui FabioAmbrosi.it su Google Aggiungi il sito alle fonti preferite per ritrovare più facilmente i nuovi contenuti nelle Notizie principali quando disponibili.
Aggiungi su Google

Fonti e link utili

Blocco opzionale per articoli news

Altri articoli da leggere

Vai alle news