Iscriviti al feed

In breve: Red Hat ritiene che i pesi del modello con licenza open source, uniti a componenti software open source, siano i criteri minimi per l'IA open source.

Più di trent'anni fa, Red Hat ha intuito il potenziale dello sviluppo e delle licenze open source per la creazione di software migliori, in grado di favorire l'innovazione tecnologica. Sono stati necessari 30 milioni di righe di codice, ma Linux è riuscito a diventare il software di maggior successo di sempre non solo nell'ambito open source, ma anche in termini assoluti. Oggi, l'impegno di Red Hat a favore dei principi dell'open source continua sia nel nostro modello di business che nella nostra cultura aziendale. Riteniamo che, se applicati nel modo giusto, questi concetti possano avere lo stesso impatto sull'intelligenza artificiale (IA). Tuttavia, nel settore tecnologico esistono punti di vista molto diversi su quale sia questo "modo giusto".

L'intelligenza artificiale, in particolare i modelli di linguaggio di grandi dimensioni (LLM) alla base dell'IA generativa (IA gen), non è completamente equiparabile ai software open source. La differenza, infatti, è che i modelli di IA sono costituiti principalmente dai pesi del modello, ovvero parametri numerici che determinano il modo in cui un modello elabora gli input e le connessioni che stabilisce tra i vari punti dati. I pesi del modello sono il risultato di un processo di addestramento completo che prevede grandi quantità di dati preparati, combinati ed elaborati con cura. 

Sebbene i pesi del modello non siano software, per alcuni aspetti svolgono una funzione simile al codice. È facile comprendere che i dati sono il codice sorgente del modello, o che costituiscono un elemento analogo. Nell'open source, il codice sorgente è comunemente definito come la "forma preferita" per apportare modifiche al software. I dati di addestramento da soli non sono adatti a questo ruolo. Infatti, le loro dimensioni generalmente elevate e il complicato processo di pre-addestramento portano qualsiasi elemento dei dati di addestramento a creare una connessione debole e indiretta sia con i pesi addestrati che con il comportamento risultante del modello stesso. 

Oggi, la maggior parte dei miglioramenti ai modelli di IA apportati dalla community non ha a che fare con l'accesso ai dati di addestramento originali o con la manipolazione degli stessi. Piuttosto, è il risultato di modifiche ai pesi del modello o di un processo di ottimizzazione che può servire anche per regolare le prestazioni del modello. La libertà di apportare questi miglioramenti richiede che i pesi siano rilasciati con tutte le autorizzazioni che gli utenti ottengono con le licenze open source.

La posizione di Red Hat sull'IA open source

Red Hat ritiene che i pesi del modello con licenza open source, insieme ai componenti software open source, rappresentino la soglia minima per l'IA open source. Questo non deve essere considerato come un traguardo, bensì un punto di partenza. Invitiamo la community open source, le autorità di regolamentazione e tutto il settore a formare e ottimizzare i modelli di IA con un impegno costante a favore della trasparenza e dell'allineamento ai principi di sviluppo open source. 

Questa è la posizione di Red Hat su come l'ecosistema dei software open source possa impegnarsi in modo pratico nell'ambito dell'IA open source. Non è un tentativo di definizione formale, come quello intrapreso da Open Source Initiative (OSI) con la sua Open Source AI Definition (OSAID); al momento, a interessarci sono i fattori che rendono l'IA open source accessibile e raggiungibile per il maggior numero possibile di community, aziende e fornitori. 

Abbiamo messo in pratica questa idea attraverso il nostro lavoro nelle community open source, come evidenziato dal progetto InstructLab guidato da Red Hat e dal nostro lavoro sulla famiglia di modelli con licenza open source Granite in collaborazione con IBM Research. Con InstructLab è molto più semplice contribuire ai modelli di IA anche per chi non è un data scientist. Inoltre, gli esperti di dominio di qualsiasi settore possono condividere le proprie competenze e conoscenze con InstructLab, sia per uso interno che per promuovere un modello di IA open source condiviso e ampiamente accessibile per le community upstream. 

La famiglia di modelli Granite 3.0 è adatta a un'ampia gamma di scenari di utilizzo dell'IA, dalla generazione del codice all'elaborazione del linguaggio naturale, fino all'estrazione di informazioni da vasti set di dati, il tutto con una licenza open source permissiva. Abbiamo aiutato IBM Research a portare una famiglia di modelli di codice Granite nel mondo open source e ora continuiamo a supportarla sia come open source che all'interno della nostra offerta Red Hat AI.

Le reazioni causate dai recenti annunci di DeepSeek mostrano come l'innovazione open source possa influire sull'IA, a livello dei modelli e non solo. Naturalmente, l'approccio di DeepSeek desta preoccupazioni, in particolare perché la licenza del modello non chiarisce come è stato prodotto, il che rende ancora più evidente quanto sia necessaria la trasparenza in quest'ambito. Detto questo, l'innovazione conferma la nostra visione del futuro: l'IA deve essere open source e incentrata su modelli più piccoli, ottimizzati e aperti, che possono essere personalizzati in base a specifici scenari di utilizzo dei dati aziendali ovunque nel cloud ibrido.

Espansione dell'IA open source oltre i modelli

La tecnologia open source e i principi di sviluppo sono alla base delle nostre soluzioni di IA, e lo stesso vale per il portfolio di Red Hat AI. Red Hat OpenShift AI si basa su container conformi a Kubernetes, KubeFlow e Open Container Initiative (OCI) e su una serie di altre tecnologie open source cloud native. Red Hat Enterprise Linux AI (RHEL AI) integra la famiglia di LLM Granite con licenza open source di IBM e il progetto open source InstructLab.

Il lavoro di Red Hat nell'ambito dell'IA open source si estende ben oltre InstructLab e la famiglia di modelli Granite, e include gli strumenti e le piattaforme necessari per utilizzare questa tecnologia in modo produttivo. Partecipiamo attivamente a un numero crescente di progetti e community upstream e ne abbiamo avviati molti altri autonomamente, tra cui:

  • RamaLama, un progetto open source che mira a semplificare la gestione e l'elaborazione dei modelli di IA a livello locale;
  • TrustyAI, un toolkit open source per la creazione di flussi di lavoro di IA più responsabili;
  • Climatik, un progetto volto a rendere l'IA più sostenibile in termini di consumo energetico;
  • Podman AI Lab, un toolkit per sviluppatori incentrato sull'agevolazione della sperimentazione con gli LLM open source;

Il nostro recente annuncio su Neural Magic promuove la nostra visione dell'IA, consentendo alle organizzazioni di allineare modelli di IA più piccoli e ottimizzati, inclusi i modelli con licenza open source, ai propri dati, ovunque si trovino nel cloud ibrido. Le organizzazioni IT possono quindi utilizzare il server di inferenza vLLM per supportare le decisioni e l'output di questi modelli, contribuendo a creare uno stack di IA basato su tecnologie trasparenti e supportate.

Per Red Hat, il cloud ibrido è l'ambiente migliore per l'IA open source, perché offre la flessibilità necessaria per scegliere l'ambiente più adatto a ciascun carico di lavoro di IA, ottimizzando prestazioni, costi, scalabilità e requisiti di sicurezza. Le nostre piattaforme, i nostri obiettivi e la nostra organizzazione supportano questo impegno e non vediamo l'ora di collaborare con i partner del settore, i nostri clienti e la community open source per continuare a promuovere l'innovazione dell'IA open source.

Il potenziale per ampliare questa collaborazione nel settore dell'IA è enorme. Prevediamo un lavoro trasparente sui modelli e sulla loro formazione in un futuro più o meno vicino, la settimana o forse il mese prossimo (o anche prima, data la rapidità con cui si evolve l'IA). In ogni caso, continueremo a sostenere e ad adottare iniziative volte a rendere sempre più aperto e democratico il mondo dell'IA.


Sull'autore

Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.

During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Ricerca per canale

automation icon

Automazione

Novità sull'automazione IT di tecnologie, team e ambienti

AI icon

Intelligenza artificiale

Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque

open hybrid cloud icon

Hybrid cloud open source

Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido

security icon

Sicurezza

Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti

edge icon

Edge computing

Aggiornamenti sulle piattaforme che semplificano l'operatività edge

Infrastructure icon

Infrastruttura

Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale

application development icon

Applicazioni

Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili

Original series icon

Serie originali

Raccontiamo le interessanti storie di leader e creatori di tecnologie pensate per le aziende