Mentre le aziende tecnologiche giocano con l’API di OpenAI, questa startup ritiene che vinceranno i piccoli modelli di intelligenza artificiale interni

Mentre le aziende tecnologiche giocano con l’API di OpenAI, questa startup ritiene che vinceranno i piccoli modelli di intelligenza artificiale interni

ZenML vuole essere il collante che unisce tutti gli strumenti AI open source. Questo framework open source ti consente di creare pipeline che verranno utilizzate da data scientist, ingegneri di machine learning e ingegneri di piattaforma per collaborare e creare nuovi modelli di intelligenza artificiale.

Il motivo per cui ZenML è interessante è che dà alle aziende la possibilità di costruire i propri modelli privati. Naturalmente, le aziende probabilmente non costruiranno un concorrente GPT 4. Ma potrebbero costruire modelli più piccoli che funzionino particolarmente bene per le loro esigenze. E ridurrebbe la loro dipendenza dai fornitori di API, come OpenAI e Anthropic.

“L’idea è che, una volta passata la prima ondata di hype da parte di tutti coloro che utilizzano OpenAI o API closed-source, [ZenML] consentirà alle persone di costruire il proprio stack”, mi ha detto Louis Coppey, un partner della società di VC Point Nine.

All’inizio di quest’anno, ZenML ha esteso il suo round di avviamento da Point Nine con la partecipazione anche dell’investitore esistente Crane. Nel complesso, la startup con sede a Monaco, in Germania, ha ottenuto 6,4 milioni di dollari sin dal suo inizio.

Adam Probst e Hamza Tahir, i fondatori di ZenML, avevano precedentemente lavorato insieme in un’azienda che stava costruendo pipeline ML per altre aziende in un settore specifico. “Giorno dopo giorno, dovevamo creare modelli di machine learning e portarlo in produzione”, mi ha detto Adam Probst, CEO di ZenML.

Da questo lavoro, i due hanno iniziato a progettare un sistema modulare che si adattasse a circostanze, ambienti e clienti diversi in modo da non dover ripetere lo stesso lavoro ancora e ancora: questo ha portato a ZenML.

Allo stesso tempo, gli ingegneri che stanno iniziando a utilizzare l’apprendimento automatico potrebbero ottenere un vantaggio utilizzando questo sistema modulare. Il team ZenML chiama questo spazio MLOps: è un po’ come DevOps, ma applicato in particolare al ML.

“Stiamo collegando gli strumenti open source che si concentrano su passaggi specifici della catena del valore per costruire una pipeline di machine learning – tutto sulle spalle degli hyperscaler, quindi tutto sulle spalle di AWS e Google – e anche soluzioni on-premise “, ha detto Probst.

Il concetto principale di ZenML sono le pipeline. Quando scrivi una pipeline, puoi quindi eseguirla localmente o distribuirla utilizzando strumenti open source come Airflow o Kubeflow. Puoi anche sfruttare i servizi cloud gestiti, come EC2, Vertex Pipelines e Sagemaker. ZenML si integra anche con strumenti ML open source di Hugging Face, MLflow, TensorFlow, PyTorch, ecc.

“ZenML è qualcosa che riunisce tutto in un’unica esperienza unificata: è multi-vendor, multi-cloud”, ha affermato Hamza Tahir, CTO di ZenML. Fornisce connettori, osservabilità e verificabilità ai flussi di lavoro ML.

L’azienda ha rilasciato per la prima volta il suo framework su GitHub come strumento open source. Il team ha accumulato più di 3.000 stelle sulla piattaforma di codifica. ZenML ha recentemente iniziato a offrire anche una versione cloud con server gestiti: presto arriveranno i trigger per integrazioni e distribuzioni continue (CI/CD).

Alcune aziende utilizzano ZenML per casi di utilizzo industriale, sistemi di consigli per l’e-commerce, riconoscimento di immagini in un ambiente medico, ecc. Tra i clienti figurano Rivian, Playtika e Leroy Merlin.

Modelli privati ​​e specifici del settore

Il successo di ZenML dipenderà da come si evolverà l’ecosistema AI. In questo momento, molte aziende stanno aggiungendo funzionalità di intelligenza artificiale qua e là interrogando l’API di OpenAI. In questo prodotto ora hai un nuovo pulsante magico che può riassumere grandi porzioni di testo. In quel prodotto ora disponi di risposte già scritte per le interazioni con l’assistenza clienti.

“OpenAI avrà un futuro, ma pensiamo che la maggior parte del mercato dovrà avere una propria soluzione” Adam Prost

Ma ci sono un paio di problemi con queste API: sono troppo sofisticate e troppo costose. “OpenAI, o questi grandi modelli linguistici costruiti a porte chiuse, sono realizzati per casi d’uso generali, non per casi d’uso specifici. Quindi attualmente è troppo addestrato e troppo costoso per casi d’uso specifici”, ha affermato Probst.

“OpenAI avrà un futuro, ma riteniamo che la maggior parte del mercato dovrà avere una propria soluzione. Ed è per questo che l’open source è molto attraente per loro”, ha aggiunto.

Anche il CEO di OpenAI, Sam Altman, ritiene che i modelli di intelligenza artificiale non saranno una situazione valida per tutti. “Penso che entrambi abbiano un ruolo importante. Siamo interessati ad entrambi e il futuro sarà un ibrido di entrambi”, ha detto Altman rispondendo a una domanda sui modelli piccoli e specializzati rispetto ai modelli ampi durante una sessione di domande e risposte alla Stazione F all’inizio di quest’anno.

Ci sono anche implicazioni etiche e legali legate all’utilizzo dell’intelligenza artificiale. La regolamentazione è ancora in forte evoluzione in tempo reale, ma la legislazione europea in particolare potrebbe incoraggiare le aziende a utilizzare modelli di intelligenza artificiale addestrati su set di dati molto specifici e in modi molto specifici.

“Gartner afferma che il 75% delle imprese si sta spostando da [proofs of concept] alla produzione nel 2024. Quindi i prossimi uno o due anni saranno probabilmente alcuni dei momenti più importanti nella storia dell’intelligenza artificiale, in cui finalmente entreremo in produzione utilizzando probabilmente una miscela di modelli fondamentali open source ottimizzati su dati proprietari”, Tahir Dimmi.

“Il valore di MLOps è che crediamo che il 99% dei casi d’uso dell’intelligenza artificiale saranno guidati da modelli più specializzati, più economici e più piccoli che verranno addestrati internamente”, ha aggiunto più avanti nella conversazione.

It is important to emphasize that the information presented in the article Mentre le aziende tecnologiche giocano con l’API di OpenAI, questa startup ritiene che vinceranno i piccoli modelli di intelligenza artificiale interni
is the result of thorough research and reliable sources but may be subject to changes and updates after the publication date of this article.

Source Mentre le aziende tecnologiche giocano con l’API di OpenAI, questa startup ritiene che vinceranno i piccoli modelli di intelligenza artificiale interni

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Apri la chat
💬 Hai bisogno di aiuto?
Ciao👋
come ti posso aiutare?