CHIEF GROWTH OFFICER / GROWTH HACKER
IMPRENDITORE / FORMATORE / DIVULGATORE

GIO.CINQUEGRANA@GMAIL.COM
(+39) 393 984 47 44

Perplexity nell’occhio del ciclone: la prima sfida italiana sul copyright dell’intelligenza artificiale
RTI e Medusa hanno citato Perplexity al Tribunale Civile di Roma per l’uso presunto di opere nell’addestramento dei modelli. È la prima causa di questo tipo in Italia e potrebbe creare un precedente.

Ascolta il Mini Podcast dell’articolo

Quanto vale un singolo fotogramma di un film quando viene usato per addestrare un algoritmo. Quanto è sottile il confine tra ispirazione e appropriazione nell’era dell’automazione cognitiva. E quante aziende italiane hanno davvero una strategia per governare il proprio patrimonio digitale prima che a farlo sia un tribunale.

Cosa è successo

Secondo un articolo pubblicato da Tgcom, RTI (Reti Televisive Italiane) e Medusa Film hanno avviato un’azione giudiziaria nei confronti di Perplexity. L’iniziativa è stata depositata presso il Tribunale Civile di Roma e ruota attorno a un’accusa centrale: per le due società, la piattaforma avrebbe utilizzato senza autorizzazione e su larga scala contenuti audiovisivi e cinematografici di loro proprietà per l’addestramento dei propri sistemi di intelligenza artificiale.

Le due aziende del gruppo Mediaset chiedono che il Tribunale riconosca l’illiceità della condotta, disponga il blocco di ogni utilizzo non autorizzato dei contenuti e condanni Perplexity a un risarcimento dei danni. I legali hanno inoltre richiesto l’applicazione di una penale giornaliera in caso di eventuali violazioni future. Si tratta della prima causa di questo tipo in Italia, pur non essendo la prima a livello mondiale. Da Perplexity non è arrivato alcun commento.

Perché il caso conta davvero

Questa controversia potrebbe diventare un precedente per il mercato italiano. Il procedimento potrebbe aprire la strada a un nuovo filone di contenziosi, in un momento in cui l’intelligenza artificiale è al centro di dibattiti delicati non solo sull’uso di contenuti per l’addestramento, ma anche sull’impatto occupazionale. La posta in gioco non è solo legale: riguarda il modo in cui imprese media, piattaforme e sviluppatori definiscono il valore degli asset digitali, la tracciabilità delle fonti e i modelli di licenza.

Il segnale è netto. L’ecosistema che produce, distribuisce e sfrutta contenuti sta cercando una nuova sintassi contrattuale, dove trasparenza, consenso e compensazione diventano elementi strutturali del rapporto tra chi crea opere e chi addestra sistemi di AI.

Le questioni giuridiche sul tavolo

Al centro della disputa si collocano alcuni nodi che il digitale ha reso urgenti.

  • Diritto d’autore e diritti connessi. La tesi delle ricorrenti è che l’utilizzo massivo delle opere per addestrare sistemi di AI senza consenso violi le prerogative esclusive dei titolari.
  • Scala e intenzione d’uso. La presunta ampiezza dell’addestramento e la natura commerciale dei sistemi possono incidere sulla valutazione della liceità.
  • Controllo dell’accesso e rimedi. La richiesta di inibitoria, risarcimento e penale giornaliera suggerisce l’esigenza di rimedi efficaci nel prevenire e disincentivare usi futuri non autorizzati.

Si tratta di questioni che toccano la fisionomia stessa dei modelli generativi. La capacità di apprendere da grandi moli di dati è la loro forza, ma è anche la fonte di nuove responsabilità verso chi quei dati li produce.

Innovazione senza freni o innovazione con regole

La tecnologia non deve rallentare. La tecnologia deve accelerare con regole chiare. Il punto non è se adottare l’AI, ma come adottarla. Un settore che prova a ignorare il tema del copyright costruisce su fondamenta fragili. Un settore che impone veti indiscriminati congela competitività e produttività. La risposta matura sta in un patto operativo tra creatori di contenuti e sviluppatori di modelli: chiarezza su cosa si può usare, in che modo, a quali condizioni e con quale tracciabilità.

Implicazioni per imprese media e non solo

Il caso tocca innanzitutto broadcaster e case di produzione, ma il messaggio si estende a editori, brand e aziende con archivi proprietari.

  • Valorizzazione degli asset. Cataloghi, metadata e librerie diventano leve strategiche se accompagnate da regole di ingaggio chiare.
  • Governance dei dati. Ogni impresa dovrebbe sapere cosa è proprio, cosa è licenziato, cosa è pubblico e cosa richiede consenso esplicito per usi di addestramento.
  • Due diligence sui fornitori. L’integrazione di strumenti di AI va collegata a impegni contrattuali sul rispetto dei diritti e su audit periodici.

Non è una battaglia tra tecnologia e cultura. È un passaggio di maturità che porta la cultura nell’architettura tecnologica, e la tecnologia dentro i modelli economici della cultura.

Verso regole di ingaggio più chiare

Una soluzione che tenga insieme innovazione e diritti non nasce dalla contrapposizione, ma da meccanismi concreti di abilitazione.

  • Licenze mirate. Accordi che distinguano tra addestramento, fine-tuning e inferenza, con corrispettivi e limiti proporzionati.
  • Trasparenza d’addestramento. Informazioni verificabili su quali set di dati vengono usati e con quali restrizioni.
  • Meccanismi di opt-out e opt-in. Strade semplici per negare o concedere l’uso dei contenuti in base agli obiettivi dei titolari.
  • Tracciabilità tecnica. Sistemi e log che permettano controlli a posteriori e responsabilità condivise lungo la filiera.

Questi elementi non frenano l’AI. Questi elementi stabilizzano l’AI, creano fiducia e sbloccano investimenti che oggi molte imprese esitano a compiere.

Cosa fare subito in azienda

Ogni organizzazione che produce o utilizza contenuti dovrebbe muoversi ora, senza aspettare un verdetto.

  • Mappare gli asset. Catalogare opere, diritti e restrizioni, inclusi eventuali diritti connessi e materiali di terzi.
  • Stabilire policy d’uso. Definire se, come e con chi i contenuti possano essere condivisi per scopi di addestramento.
  • Aggiornare i contratti. Inserire clausole esplicite su addestramento, audit, responsabilità e rimedi.
  • Implementare controlli tecnici. Tracciamento degli accessi, watermarking dove opportuno e monitoraggio degli utilizzi anomali.
  • Valutare partnership. Esplorare progetti pilota con fornitori di AI che accettino standard elevati di compliance.
  • Costituire un team interfunzionale. Mettere insieme legale, tecnologia, data governance e business per decisioni coerenti e rapide.
  • Pianificare scenari. Considerare impatti operativi di possibili inibitorie, risarcimenti o nuove richieste dei titolari dei diritti.

Questo approccio non è un costo burocratico. È un investimento per trasformare il rischio in vantaggio competitivo.

Gli esiti possibili e i loro effetti

Un’eventuale inibitoria cambierebbe il perimetro operativo di chi sviluppa modelli su larga scala. Una condanna risarcitoria ridefinirebbe il costo del training con contenuti protetti. L’ipotesi di una penale giornaliera, se concessa, introdurrebbe un forte deterrente contro reiterazioni di condotte non autorizzate. Qualunque sarà la decisione, altre iniziative giudiziarie potrebbero emergere in Italia, accelerando la ricerca di standard condivisi.

La pressione del mercato potrebbe spingere verso intese di settore, dove i titolari di contenuti definiscono pacchetti e condizioni, e le piattaforme di AI adottano modelli di utilizzo verificabili e pagamenti tracciati. È un percorso che richiede pragmatismo e tecnologia applicata alla conformità, non solo alla generazione di output.

L’innovazione come scelta obbligata

Le aziende che oggi sperimentano con l’AI in modo responsabile costruiscono un vantaggio che non si improvvisa. La lezione è chiara. L’adozione dell’intelligenza artificiale non va rallentata, va istituzionalizzata. Serve portare dentro i processi ordinari la gestione dei diritti, la trasparenza delle fonti e la tracciabilità degli usi. Chi aspetta un quadro perfetto rischia di arrivare tardi. Chi apre cantieri con regole e disciplina può guidare il mercato.

Uno spartiacque per il sistema Italia

Questa causa rappresenta uno spartiacque simbolico per il sistema Italia. Il Paese che custodisce uno dei patrimoni culturali più rilevanti al mondo può e deve coniugare tutela e progresso. La via breve non è proibire. La via breve è rendere l’innovazione contrattabile, verificabile e scalabile. È il modo più concreto per garantire sostenibilità economica a chi produce contenuti e certezza operativa a chi sviluppa intelligenze.

La domanda vera è se sapremo trasformare un contenzioso in un’architettura di fiducia. La risposta, come sempre, dipenderà dalla nostra capacità di unire competenze legali, tecniche e industriali in un modello che funzioni per tutti.

Una considerazione personale

Credo che questo caso sia un’occasione preziosa per costruire un ponte stabile tra creatività e algoritmi. Se sapremo usare il tribunale come acceleratore di regole e non come freno, l’intelligenza artificiale diventerà finalmente una tecnologia di sistema per la crescita, non un terreno di scontro permanente.