Non è un segreto che la rivoluzione dell’AI sia ben avviata. Secondo recenti studi il 42% delle aziende investirà in strumenti di AI generativa come ChatGPT nel 2023.
La maggior parte delle organizzazioni che hanno una significativa presenza On-line sta cercando di rimanere competitiva abbracciando i cambiamenti dell’IA nel mercato e identificando modi per sfruttare i Large Language Models (LLM) “pronti all’uso” per ottimizzare le attività e automatizzare i processi aziendali.
Tuttavia, con l’accelerazione dell’adozione dell’AI generativa, le aziende dovranno mettere a punto i propri Large Language Models (LLM) utilizzando i propri set di dati per massimizzare il valore della tecnologia e soddisfare le proprie esigenze specifiche.
C’è un’opportunità per le organizzazioni di sfruttare i loro contenuti Knowledge Graphs per accelerare le loro iniziative di intelligenza artificiale e ottenere vantaggi SEO allo stesso tempo.
Cos’è un LLM?
Un Large Language Model (LLM) è un tipo di intelligenza artificiale generativa (AI) che si basa sull’apprendimento profondo e su enormi set di dati per comprendere, riassumere, tradurre, prevedere e generare nuovi contenuti.
Gli LLM sono più comunemente utilizzati nelle applicazioni di elaborazione del linguaggio naturale (NLP) come ChatGPT, in cui gli utenti possono inserire una query in linguaggio naturale e generare una risposta.
Le aziende possono utilizzare questi strumenti basati su LLM internamente per fornire ai dipendenti supporto per domande e risposte o esternamente per offrire una migliore esperienza al cliente.
Nonostante l’efficienza e i vantaggi che offre, tuttavia, anche gli LLM hanno le loro sfide.
Gli LLM sono noti per la loro tendenza ad ” allucinare ” e produrre output errati che non sono basati sui dati di addestramento o basati su interpretazioni errate del prompt di input. Sono costosi da addestrare e gestire, difficili da controllare e spiegare e spesso forniscono risposte incoerenti.
Fortunatamente, si possono utilizzare i grafici della conoscenza per mitigare alcuni di questi problemi e fornire informazioni strutturate e affidabili da utilizzare per gli LLM.
Cos’è un Knowledge Graph?
Un Knowledge Graph è una raccolta di relazioni tra cose definite utilizzando un vocabolario standardizzato, da cui è possibile acquisire nuove conoscenze attraverso l’inferenza. Quando la conoscenza è organizzata in un formato strutturato, consente l’efficienza nel recupero delle informazioni e migliora l’accuratezza.
Ad esempio, la maggior parte delle organizzazioni dispone di siti Web che consistono in grandi quantità di informazioni sull’attività, come prodotti e servizi offerti, posizioni, blog, eventi, case study e altro ancora. Tuttavia, le informazioni esistono come testo sul sito Web, il che significa che i dati non sono strutturati.
Puoi utilizzare i dati strutturati, noti anche come Schema Markup , per descrivere il contenuto e le entità di ogni pagina. Puoi anche utilizzare i dati strutturati per collegare i diversi argomenti sul tuo sito o collegarli a basi di conoscenza autorevoli esterne (ad es. Wikidata).
La maggior parte degli utenti implementa Schema Markup sui propri siti per aiutare i motori di ricerca a comprendere e contestualizzare il modo in cui le entità sui propri siti si relazionano tra loro.
Questa tattica di SEO semantica aiuterà quindi i motori di ricerca a fornire agli utenti risposte più accurate alle loro domande.
Collegando il tuo markup Schema, stai anche sviluppando in modo efficace il tuo contenuto Knowledge Graph, un grafico di conoscenza del marketing pieno di informazioni sulla tua attività. Puoi quindi utilizzare il tuo grafico della conoscenza dei contenuti per fornire preziose informazioni strutturate per migliorare le capacità degli LLM per la tua azienda.
LLM e Markup dello Schema
Per sviluppare il tuo grafico di conoscenza dei contenuti, puoi creare il tuo Schema Markup per rappresentare i tuoi contenuti. Uno dei nuovi modi in cui i SEO possono raggiungere questo obiettivo è utilizzare LLM per generare Schema Markup per una pagina. Sembra fantastico in teoria, tuttavia, ci sono diversi rischi e sfide associati a questo approccio.
Uno di questi rischi include allucinazioni di proprietà. Ciò accade quando l’LLM crea proprietà che non esistono nel vocabolario di Schema.org. In secondo luogo, è probabile che l’LLM non sia a conoscenza delle proprietà dei dati strutturati richieste e consigliate da Google, quindi le prevederà e metterà a repentaglio le tue possibilità di ottenere un risultato multimediale (Rich Snippet). Per ovviare a questo, è necessario che un essere umano verifichi le proprietà dei dati strutturati generate dal LLM.
Gli LLM sono bravi a identificare le entità su Wikidata. Tuttavia, manca la conoscenza delle entità definite altrove sul tuo sito. Ciò significa che il markup creato da LLM creerà entità duplicate, disconnesse tra le pagine del tuo sito o anche all’interno di una pagina, rendendo ancora più difficile la gestione delle tue entità.
Oltre alle entità duplicate, gli LLM non sono in grado di gestire il markup dello schema su larga scala. Può produrre solo Schema Markup statico per ogni pagina. Se apporti modifiche ai contenuti del tuo sito, il markup dello schema non si aggiornerà in modo dinamico, il che si tradurrà in uno spostamento dello schema, detto anche Schema Dirft o deriva dello schema.
La deriva dello schema è il concetto della divergenza del contenuto web e del markup dello schema. In genere questo potrebbe essere visualizzato con markup schema.org statico, che non cambia insieme al contenuto della pagina quando questa viene aggiornata. La deriva è una misura della distanza tra il nuovo contenuto e il markup schema.org originale. Il markup dello schema si sposta nel tempo attraverso il cambiamento del contenuto o il markup dello schema senza il corrispondente cambiamento della sua controparte.
Schema Drift è stato recentemente menzionato da Martin Splitt di Google, nel podcast “Search Off the Record: Structured Data What’s it all about “,che dice:
“ [Come] garantire che non vi sia alcuna deviazione tra ciò che è nella pagina e ciò che è nei dati strutturati [non è] necessariamente facile. ” – Martin Splitt
Con tutti i rischi e le sfide di questo approccio frammentario, lo Schema Markup creato da LLM è un Schema Markup statico e non connesso per una pagina: non ti aiuta a sviluppare il tuo grafico di conoscenza dei contenuti.
Invece, dovresti creare il tuo Schema Markup in un modo connesso e scalabile che si aggiorni dinamicamente. In questo modo, avrai un grafico aggiornato della conoscenza che può essere utilizzato non solo per la SEO, ma anche per accelerare le tue esperienze e iniziative di intelligenza artificiale.
Sinergia tra Knowledge Graph e LLM
Esistono tre modi principali per sfruttare il grafico della conoscenza dei contenuti per migliorare le capacità degli LLM per le aziende.
- Le aziende possono formare i propri LLM utilizzando il grafico della conoscenza dei contenuti.
- Le aziende possono utilizzare gli LLM per interrogare i propri grafici di conoscenza dei contenuti.
- Le aziende possono strutturare le proprie informazioni sotto forma di un grafico della conoscenza per aiutare l’LLM a funzionare in modo più efficiente.
Addestrare il LLM utilizzando il tuo Content Knowledge Graph
Affinché un’azienda possa prosperare in questa era tecnologica, è fondamentale connettersi con i clienti attraverso il loro canale preferito.
Le esperienze di intelligenza artificiale basate su LLM che rispondono alle domande in modo automatizzato e sensibile al contesto possono supportare strategie digitali multicanale. Sfruttando l’intelligenza artificiale per supportare più canali, le aziende possono servire i propri clienti attraverso i loro canali preferiti senza dover assumere più dipendenti.
Detto questo, se vuoi sfruttare un chatbot AI per servire i tuoi clienti, vuoi che fornisca ai tuoi clienti le risposte giuste in ogni momento. Tuttavia, gli LLM non hanno la possibilità di eseguire un fact check. Generano risposte basate su schemi e probabilità. Ciò si traduce in problemi come risposte imprecise e allucinazioni.
Per mitigare questo problema, le aziende possono utilizzare i propri grafici di conoscenza dei contenuti per addestrare e mettere a terra l’LLM per casi d’uso specifici. Nel caso di un chatbot AI, gli LLM avrebbero bisogno di una comprensione di quali entità e relazioni hai nella tua attività per fornire risposte accurate ai tuoi clienti.
Il vocabolario di Schema.org è robusto e sfruttando l’ampia gamma di proprietà disponibili nel vocabolario, puoi descrivere le entità sul tuo sito Web e il modo in cui sono correlate con maggiore specificità.
La raccolta di entità del sito Web forma un grafico della conoscenza del contenuto che è un set di dati completo che può fondare i tuoi LLM. Il risultato sono risposte accurate e basate sui fatti per migliorare la tua esperienza di intelligenza artificiale.
Vediamo un esempio di come uno Knowledge Graph può addestrare e informare un Chatbot.
Una rete sanitaria ha un sito Web con pagine sui propri medici, posizioni, specializzazioni, servizi, ecc. La pagina del medico ha contenuti relativi alle specialità, valutazioni, aree di servizio e orari di apertura del medico specifico.
Se la rete sanitaria dispone di un grafico di conoscenza dei contenuti che cattura tutte le informazioni sul proprio sito, quando un utente cerca sul Chatbot AI “Voglio prenotare un appuntamento mattutino con un neurologo a Palermo questa settimana”, il Chatbot può dedurre le informazioni accedendo al content knowledge graph della rete sanitaria. La risposta sarebbe i nomi dei neurologi che assistono i pazienti a Palermo e hanno appuntamenti mattutini disponibili con il loro link di prenotazione.
Anche il grafico della conoscenza del contenuto è prontamente disponibile, quindi puoi distribuire rapidamente il tuo grafico della conoscenza e addestrare il tuo LLM con evidenti vantaggi.
Utilizzo di LLM per interrogare il tuo Knowledge Graph
Invece di addestrare il LLM, puoi utilizzare il LLM per generare le query per ottenere le risposte direttamente dal tuo grafico di conoscenza dei contenuti.
Questo approccio di generazione di risposte attraverso il LLM è meno complicato, meno costoso e più scalabile. Tutto ciò di cui hai bisogno è un grafico della conoscenza dei contenuti e un endpoint SPARQL.
Ecco come funziona:
- Un applicativo carica il modello di contenuto dal grafico della conoscenza del contenuto. Questi sarebbero tutti i tipi di dati e le proprietà di Schema.org che esistono nel grafico della conoscenza del tuo sito web.
- Quindi l’utente pone una domanda all’applicativo.
- L’applicativo combina la domanda con il modello di contenuto e chiede a LLM di scrivere una query SPARQL. Nota: l’unica cosa che fa il LLM è trasformare la domanda in una query.
- L’applicativo esegue quindi lo SPARQL rispetto al grafico della conoscenza del contenuto e visualizza i risultati o le richieste come risposta formattata utilizzando l’LLM.
Questo metodo è possibile perché gli LLM hanno una grande conoscenza di SPARQL e possono aiutare a tradurre la domanda dal linguaggio naturale a una query SPARQL.
In questo modo, l’LLM non deve conservare i dati in memoria o essere addestrato sui dati perché le risposte esistono all’interno del grafico della conoscenza del contenuto, il che lo rende una soluzione meno dispendiosa in termini di risorse. Inoltre, le aziende possono evitare di fornire tutti i loro dati al LLM poiché questo metodo introduce un punto di controllo per il proprietario del grafico della conoscenza per consentire solo domande sui propri dati che approvano.
Questo approccio supera anche alcune delle restrizioni degli LLM.
Ad esempio, gli LLM hanno limiti di token, che limitano il numero di input e output di parole che possono essere incluse. Questo approccio elimina questo problema utilizzando gli LLM per creare la query/prompt e utilizzando il grafico della conoscenza per eseguire query. Poiché le query SPARQL possono eseguire query su gigabyte di dati, non hanno limitazioni di token. Ciò significa che puoi utilizzare un intero grafico della conoscenza del contenuto senza preoccuparti del limite di parole.
Utilizzando il LLM al solo scopo di interrogare il grafico della conoscenza, puoi ottenere i tuoi risultati di intelligenza artificiale in modo elegante ed economico e avere il controllo dei tuoi dati superando anche alcune delle attuali restrizioni LLM.
Ottimizzazione degli LLM gestendo i dati sotto forma di Knowledge Graph
Puoi imparare a macchina il luogo di nascita di Obama ogni volta che ne hai bisogno, ma costa molto e non sei mai sicuro che sia corretto. – Jamie Taylor, Google Knowledge Graph
Uno dei costi più considerevoli dell’esecuzione di un LLM è il costo di inferenza (ovvero il costo dell’esecuzione di una query tramite LLM).
Rispetto a una query tradizionale, gli LLM come ChatGPT devono essere eseguiti su GPU costose per rispondere alle query ($ 0,36 per query secondo questa ricerca ), che possono intaccare i profitti a lungo termine.
Le aziende possono ridurre il costo di inferenza del LLM memorizzando le risposte storiche o la conoscenza generata dal LLM sotto forma di un grafico della conoscenza. In questo modo, se una domanda è stata posta di nuovo, il LLM non deve esaurire le risorse per rigenerare la stessa risposta. Può semplicemente cercare la risposta memorizzata nel grafico della conoscenza.
I dati non strutturati su cui viene addestrato il LLM possono anche causare inefficienze nel recupero delle informazioni e costi di inferenza elevati. Pertanto, la conversione di dati non strutturati come documenti e pagine Web in un grafico della conoscenza può ridurre il tempo di recupero delle informazioni e produrre fatti più affidabili.
Poiché il volume di dati nell’ambiente cloud ibrido continua a crescere a un ritmo esponenziale, i grafici della conoscenza svolgono un ruolo cruciale nella gestione e nell’organizzazione dei dati. Contribuiscono alla “grande convergenza”, che combina la gestione dei dati e la gestione della conoscenza per garantire un’organizzazione efficiente e il recupero delle informazioni.
Costruisci il tuo Knowledge Graph
In sintesi, l’integrazione dei grafici della conoscenza con gli LLM può migliorare significativamente l’accuratezza del processo decisionale, specialmente nel campo del marketing.
Il grafico della conoscenza del contenuto è una base eccellente per sfruttare i dati dello schema negli strumenti LLM, portando a più piattaforme pronte per l’IA. È un investimento che potrebbe ripagare profumatamente, soprattutto in un mondo che fa sempre più affidamento sull’intelligenza artificiale e sulla gestione della conoscenza.
In XiWeb, possiamo aiutarti a implementare i dati Schema Markup e sviluppare un grafico della conoscenza dei contenuti semanticamente rilevante e pronto all’uso per preparare la tua organizzazione all’IA.
Contattaci per saperne di più su come possiamo aiutarti a costruire il tuo grafico delle conoscenze per il tuo marketing online e per migliorare il tuo LLM.