5 modi in cui i leader aziendali possono utilizzare modelli linguistici di grandi dimensioni per sbloccare nuove possibilità
CasaCasa > Blog > 5 modi in cui i leader aziendali possono utilizzare modelli linguistici di grandi dimensioni per sbloccare nuove possibilità

5 modi in cui i leader aziendali possono utilizzare modelli linguistici di grandi dimensioni per sbloccare nuove possibilità

Jul 10, 2023

Vai alla nostra libreria on-demand per visualizzare le sessioni di VB Transform 2023. Registrati qui

È altamente improbabile che tu abbia perso il brusio che circonda l'intelligenza artificiale generativa e in particolare i modelli linguistici di grandi dimensioni (LLM) come ChatGPT. Negli ultimi mesi, questi sono stati argomenti caldi ovunque, dai social media alle notizie alle conversazioni quotidiane, e abbiamo appena iniziato a capire di cosa potrebbe essere capace l’intelligenza artificiale generativa.

In generale, la generazione AI si riferisce a una categoria di tecniche di machine learning (ML) in grado di creare contenuti come immagini, musica e testo che assomigliano molto ai contenuti creati dall'uomo. Gli LLM, d'altra parte, sono reti neurali con miliardi di parametri che sono stati addestrati su grandi quantità di dati di testo, che consentono loro di comprendere, elaborare e generare un linguaggio simile a quello umano.

Insieme, queste tecnologie offrono una vasta gamma di applicazioni che hanno il potenziale per rimodellare diversi settori e amplificare la qualità delle interazioni tra uomo e macchina. Esplorando queste applicazioni, gli imprenditori e i decisori aziendali possono trarre preziosa ispirazione, favorire una crescita accelerata e ottenere risultati tangibili migliorati attraverso la prototipazione rapida. Il vantaggio aggiuntivo della generazione AI è che la maggior parte di queste applicazioni richiedono competenze minime e non richiedono ulteriore formazione sui modelli.

Breve disclaimer: le persone spesso tendono ad associare la generazione AI esclusivamente a ChatGPT, ma sono disponibili numerosi modelli di altri fornitori, come T5 di Google, Llama di Meta, Falcon di TII e Claude di Anthropic. Sebbene la maggior parte delle applicazioni discusse in questo articolo abbiano utilizzato ChatGPT di OpenAI, puoi facilmente adattare e cambiare il LLM sottostante per allinearlo al tuo budget di calcolo specifico, alla latenza (la velocità con cui hai bisogno del tuo modello per generare completamenti: i modelli più piccoli consentono un caricamento più rapido e ridurre la latenza dell'inferenza) e l'attività a valle.

VB Trasforma 2023 su richiesta

Ti sei perso una sessione di VB Transform 2023? Registrati per accedere alla libreria on-demand per tutte le nostre sessioni in primo piano.

Gli LLM dimostrano capacità straordinarie in molte attività pronte all'uso, come la traduzione e il riepilogo, senza richiedere la personalizzazione iniziale. Il motivo per cui sono così bravi in ​​questi compiti generici è che il modello di base sottostante è stato addestrato su set di dati grandi ma generici. Tuttavia, questa competenza potrebbe non estendersi perfettamente ad attività specifiche del settore, tra cui, ad esempio, fornire risposte sulla relazione annuale della propria azienda. È qui che entra in gioco la Retrieval Augmented Generation (RAG).

RAG è un framework per la creazione di sistemi basati su LLM che utilizzano fonti di dati esterne. RAG fornisce a un LLM l'accesso a dati che non avrebbe visto durante la pre-formazione, ma che sono necessari per fornire correttamente risposte pertinenti e accurate. RAG consente a modelli linguistici come ChatGPT di fornire risposte migliori a domande specifiche del dominio combinando le loro capacità di elaborazione del linguaggio naturale (PNL) con la conoscenza esterna, mitigando i casi di generazione di informazioni imprecise o "allucinazioni". Lo fa:

Questo approccio rende i LLM più versatili e utili in vari domini e applicazioni, tra cui la risposta alle domande, la creazione di contenuti e la conversazione interattiva con accesso ai dati in tempo reale. Podurama, un'app per podcast, ha sfruttato tecniche simili per creare i suoi chatbot di raccomandazione basati sull'intelligenza artificiale. Questi robot suggeriscono abilmente programmi pertinenti in base alle query degli utenti, traendo approfondimenti dalle trascrizioni dei podcast per perfezionare i loro consigli.

Questo approccio è utile anche nella gestione delle crisi. PagerDuty, una piattaforma SaaS di risposta agli incidenti, utilizza LLM per generare riepiloghi degli incidenti utilizzando dati di base come titolo, gravità o altri fattori e integrandoli con dati Slack interni, in cui gli operatori discutono i dettagli e condividono aggiornamenti sulla risoluzione dei problemi per perfezionare la qualità dei riepiloghi .

Sebbene RAG possa sembrare complicato, la libreria LangChain offre agli sviluppatori gli strumenti necessari per implementare RAG e creare sofisticati sistemi di risposta alle domande. (In molti casi, per iniziare è necessaria solo una singola riga di codice). LangChain è una potente libreria che può aumentare e migliorare le prestazioni di LLM in fase di esecuzione fornendo l'accesso a origini dati esterne o connettendosi ad API esistenti di altre applicazioni.