di Giovanni Bonomo
Nei “Silicon Docks”, dove le vetrate riflettono l’idea stessa di futuro, il Product Expert Summit 2025 di Dublino ha segnato un passaggio non solo tecnologico ma anche culturale. Google non presenta più l’AI come un servizio aggiuntivo: la rende un tessuto connettivo dei suoi prodotti. Gemini diventa un’infrastruttura cognitiva che attraversa Meet, Workspace, Classroom, YouTube. È l’AI che non si vede ma che agisce, e proprio per questo cambia tutto.
Anche se molti contenuti erano coperti da NDA e gli interventi non erano quindi registrabili, ho potuto, grazie ad informazioni ricevute da chi ha partecipato personalmente e a videonote visibili in Rete, svolgere le seguenti considerazioni sulle novità di AI.
Una nuova fase – una nuova era anzi, oserei dire – si è aperta: l’AI non è più uno strumento creativo, ma un attore di processo: prende appunti, sintetizza, genera immagini, costruisce video, propone contenuti. Una volta gli strumenti erano neutrali; oggi incidono su decisioni, reputazioni, percorsi educativi, narrazioni pubbliche. E quando una tecnologia entra così profondamente nella vita delle persone, il diritto non può più limitarsi a osservare: deve interpretare, regolare, indirizzare. Perché se l’AI diventa parte integrante del processi decisionali, educativi, produttivi e comunicativi, cambia radicalmente anche il quadro delle responsabilità.
Il punto di svolta: l’AI che decide insieme all’utente
Numerose sono state le novità presentate a Dublino. Google Meet, con Take note for me, ora trascrive autonomamente le riunioni e genera un verbale strutturato. Il modello video Veo 3 permette di trasformare un semplice prompt in sequenze credibili. In Classroom Gemini elabora schede didattiche personalizzate e suggerisce attività calibrate su ciascuno studente. Su YouTube l’AI crea doppiaggi sintetici, remix, montaggi e persino estensioni narrative automatiche.
Sono funzioni affascinanti, che implicano un salto concettuale: l’AI diventa co-autrice delle attività umane. Ed è qui che si apre il fronte della responsabilità, che il legislatore è chiamato a intervenire.
AI Act: la fine dell’innocenza tecnologica
L’AI Act europeo entra in scena con un messaggio chiaro: i modelli generali come Gemini non sono più “algoritmi” astratti, ma sistemi che producono effetti concreti sulla società: devono essere documentati, tracciabili, valutati nei rischi e, soprattutto, governati.
L’AI Act dell’Unione europea fornisce la cornice regolatoria destinata a governare questa fase. Particolarmente rilevanti sono due discipline:
1. I modelli di uso generale (GPAI) come Gemini
Su di essi gravano obblighi specifici:
- documentazione tecnica completa,
- valutazioni del rischio sistemico,
- misure di sicurezza e governance,
- trasparenza verso gli integratori.
I modelli più potenti rientrano nella categoria dei modelli ad alto impatto, per i quali gli obblighi sono ulteriormente rafforzati.
2. I sistemi finali incorporati in settori sensibili
Quando l’AI è impiegata nell’istruzione, nel lavoro, nella gestione aziendale o in processi che incidono su diritti fondamentali, si entra nella fascia dei sistemi ad alto rischio (Capo III, Sezione 2 dell’AI Act).
In tali casi sono obbligatorie:
- supervisione umana,
- gestione del rischio,
- audit e monitoraggio,
- registri delle operazioni,
- controlli sui bias,
- trasparenza verso gli utenti.
Le applicazioni presentate a Dublino – in particolare quelle di Classroom e Workspace – rientrano pienamente in questo scenario.
Meet, Workspace, Classroom e le nuove responsabilità
Prendiamo tre esempi concreti.
1. Le note automatiche in Meet
Se un verbale generato dall’AI introduce un errore, chi ne risponde? L’azienda che utilizza lo strumento? Il responsabile della riunione? Oppure Google, che produce l’algoritmo? In contesti lavorativi, quel verbale può incidere su decisioni operative, gerarchie, responsabilità. Non è più un “appunto”: è un atto aziendale.
2. Classroom e la valutazione scolastica
Un suggerimento sbagliato, un compito generato con pregiudizi, una spiegazione impropria: l’AI può alterare percorsi formativi e influenzare la percezione delle capacità degli studenti. Qui l’AI Act impone la massima cautela: niente automatismi ciechi, tutto deve essere supervisionato.
3. YouTube e la creatività AI-driven
La generazione di voci sintetiche, doppiaggi, remix di contenuti introduce nuove tensioni tra libertà creativa e diritto d’autore, tra sperimentazione e tutela dell’immagine. È legittimo creare un video con una voce che “ricorda” quella di un attore famoso? E se l’AI produce un contenuto fuorviante o diffamatorio, chi paga il prezzo?
Il DSA e il problema dei rischi sistemici
Il Digital Services Act impone alle grandi piattaforme – e Google lo è per definizione – di prevenire i rischi legati alla disinformazione, alla manipolazione, alla viralità incontrollata. Con l’AI integrata nei processi creativi, la possibilità di generare contenuti ingannevoli aumenta.
Il DSA chiede valutazioni, trasparenza, mitigazione.
L’AI può essere brillante, ma non è infallibile. E quando sbaglia, la responsabilità non può cadere nel vuoto.
Un nuovo Illuminismo digitale
L’AI ha bisogno del diritto quanto il diritto ha bisogno dell’AI. L’innovazione senza regole crea opacità, disuguaglianze, abusi. Le regole senza innovazione generano immobilismo.
L’equilibrio sta in quello spazio intelligente dove trasparenza, supervisione e creatività convivono.
A Dublino si è respirata questa tensione: da un lato il fascino dell’AI che tutto crea e tutto semplifica; dall’altro, la consapevolezza che serve una nuova cultura della responsabilità. E un uovo Illuminismo, ora tecnologico, ma sempre figlio dell’Umanesimo: l’AI come strumento di emancipazione, non di opacità.
Il ruolo dell’avvocato dei media
Per chi, come lo scrivente, lavora nel diritto dell’informazione e dell’innovazione, questo è un traguardo storico.
L’avvocato non è più chiamato solo a “difendere”, ma a interpretare la tecnologia, a costruire policy, a formare scuole, redazioni, imprenditori, aziende. Insomma a fare luce.
Perché non basta conoscere le norme: bisogna comprendere il funzionamento dei modelli, la logica dei prompt, la natura delle derive algoritmiche. L’avvocato, già mediatore tra la cittadinanza e la giustizia, diventa un mediatore tra l’umano e l’artificiale, un garante di metodo.
°°°
Il Product Expert Summit 2025 ha mostrato un futuro luminoso e complesso. Un futuro in cui l’AI sarà ovunque, ma in cui la domanda fondamentale resterà la stessa: come garantire che questa intelligenza sia davvero al servizio della persona?
La risposta non verrà da un algoritmo, né da una legge da sola, verrà da una nuova alleanza: quella tra tecnica, cultura e diritto. Il ruolo dell’avvocato dei media, oggi, è proprio questo: tradurre la complessità dell’AI in regole comprensibili e in pratiche sicure, affinché la rivoluzione tecnologica non oscuri, ma rafforzi, i diritti fondamentali.
Milano, 15.11.2025
Avv. Giovanni Bonomo – C.I.O. Assistenza Legale




