Non molto tempo fa le macchine erano considerate semplicemente come strumenti che seguivano le istruzioni umane. Oggi, in un'era in cui l'AI generativa è in grado di reinventare immagini e video, la questione fondamentale è cambiata: l'AI dovrebbe chiedere sempre il permesso prima di agire? O, d'altra parte, dovrebbe avvisare gli utenti della presenza di contenuti protetti da copyright o da diritti di proprietà intellettuale? In questo contesto, i principi del software libero hanno acquisito una nuova rilevanza, specialmente con l'ascesa dei Large Language Model (LLM) negli ultimi tre anni. Non stiamo più discutendo solo di codice; stiamo discutendo della proprietà della creatività digitale.
Innanzitutto il modello open-source di condivisione dei contenuti si è profondamente radicato nella cultura digitale degli ultimi anni. Alla base c'è la filosofia open-source, che offre ai creatori la libertà di condividere il proprio lavoro (sia esso testo, immagini, video o codice) permettendo ad altri di modificarlo e ridistribuirlo. La chiave sta nell'assicurare che ogni nuova versione conservi le stesse condizioni di licenza. Questa caratteristica ha permesso a molti content creator di concedere in licenza le proprie opere attraverso varie librerie online e piattaforme generative.
Come descritto dalla Open Source Initiative (OSI), fondata nel 1998, il termine "open-source" si riferisce a un modello di sviluppo software in cui il codice sorgente è reso pubblicamente disponibile affinché chiunque possa utilizzarlo, modificarlo e distribuirlo. È qui che entra in gioco il copyleft: un tipo particolare di licenza open-source che impone alle opere derivate di mantenere gli stessi termini di licenza. Di conseguenza, risulta generalmente più restrittivo, ma allo stesso tempo aiuta a salvaguardare lo spirito open-source per il futuro.
Con il moltiplicarsi delle creazioni sintetiche, il copyleft è sempre di più visto come un modo per proteggere il bene collettivo, mettendo in dubbio il controllo proprietario che si estende anche alle opere derivate da modelli AI. Per i sostenitori del copyleft rappresenta un importante passo avanti nel contesto della GenAI, offrendo un'alternativa ai modelli commerciali dominanti. Detto questo, si tratta ancora di un lavoro in corso: un'idea in continua evoluzione, progettata per garantire che i modelli e i dataset di AI, insieme alle loro versioni modificate, rimangano liberi e disponibili per tutta la community.
Il Copyleft Language Model (Copyleft LLM) applica questi stessi principi di licenza copyleft ai Large Language Model e rappresenta uno dei trend chiave che abbiamo identificato nel nostro report Innovation Radar dell'ultimo trimestre. Per comprenderne appieno l'importanza vale la pena ripercorrerne le origini. Radicato in altre pratiche di licenza software come GPL e Creative Commons Share-Alike, il copyleft è stato concepito per il bene comune e per fermare sul nascere l'abitudine di utilizzare licenze proprietarie per blindare le opere derivate dai modelli di AI.
Con questo approccio si garantisce che i miglioramenti o le versioni ottimizzate rimangano aperti e accessibili. Il modello Copyleft LLM offre diversi vantaggi distinti rispetto alle AI "Black Box":
Al contrario molti strumenti commerciali operano su un modello di "data harvesting", in cui gli utenti della versione gratuita forniscono inconsapevolmente i dati di addestramento che vengono usati per consolidare ulteriormente il dominio di mercato dell'azienda.
Inoltre l'uso di licenze Copyleft tra i modelli open può contribuire nel continuo miglioramento delle loro funzionalità e dei loro dataset. Le community di sviluppatori e programmatori (e persino gli utenti con competenze tecniche limitate) possono addestrare e perfezionare i modelli aperti su piattaforme come Hugging Face, utilizzando modelli come LLaMA 3 di Meta (Facebook, Instagram, WhatsApp). Questo si traduce in un impulso all'innovazione? L'idea è esattamente questa.
Oltre a permettere a più persone di godere dei vantaggi di questa tecnologia, un Copyleft LLM può anche aiutare ad affrontare una delle maggiori sfide dell'AI: i bias. Infatti, uno degli obiettivi di questo tipo di licenza è promuovere un'AI più responsabile, verificabile ed equa. Con il tempo potrebbe anche consentire alle piccole imprese e alle università di accedere a nuove risorse che altrimenti sarebbero limitate a causa delle licenze commerciali.
Sebbene il Copyleft miri a proteggere il bene comune, sta nel frattempo anche affrontando una crisi moderna. Una ricerca condotta da esperti della Peking University e della Carnegie Mellon University rivela come gli LLM addestrati su grandi volumi di codice open-source non rispettino sempre le licenze associate a quel codice quando generano nuovi snippet. Gli esperti hanno concluso che, in generale, questi modelli spesso gestiscono male le licenze di tipo copyleft. La loro analisi indica che i modelli open-source tendono a comportarsi meglio in termini di conformità alle licenze rispetto alle alternative closed-source.
Inoltre c'è una crescente preoccupazione anche lato economico: il cosiddetto "Tailwind Effect". Come si è visto con aziende come, appunto, Tailwind CSS (che di recente ha dovuto affrontare dei licenziamenti), gli LLM rappresentano una minaccia per le aziende open-source. Quando un'AI viene addestrata su codice open-source di alta qualità, diventa così brava a generare quel codice che gli utenti non hanno più bisogno di visitare il sito del creatore originale o di acquistare i suoi componenti premium.
Il dilemma: se l'AI "assorbe" il valore dei progetti open-source per fornire risposte gratuite, potrebbe distruggere le stesse aziende che mantengono quel codice, portando alla situazione paradossale in cui non sopravvive alcuna nuova innovazione open-source per addestrare la prossima generazione di AI.
La battaglia per l'intelligenza artificiale open-source non riguarda solo chi possiede il codice, ma l'assicurarsi che l'ecosistema rimanga sostenibile. I Copyleft LLM rappresentano un importante passo avanti verso un futuro digitale equo, ma devono evolversi non solo per condividere conoscenza e informazioni, ma anche per proteggere i creator che li forniscono. Con il moltiplicarsi dei contenuti di matrice sintetica, l'obiettivo rimane chiaro: progettare un'AI che sia responsabile, verificabile e, soprattutto, equa nei confronti della community che l'ha costruita.
Per conoscere di più su questa evoluzione e scoprire le altre novità in ambito innovazione tecnologica, esplora il nostro report Innovation Radar Data, Analytics & AI Trends 2026 cliccando qui.