Vieni GPT
CasaCasa > Blog > Vieni GPT

Vieni GPT

Jul 15, 2023

GPT-4 può aiutare a moderare i contenuti online in modo più rapido e coerente di quanto possano fare gli esseri umani, ha affermato il produttore del modello OpenAI.

Al giorno d'oggi le aziende tecnologiche si affidano in genere a un mix di algoritmi e moderatori umani per identificare, rimuovere o limitare l'accesso ai contenuti problematici condivisi dagli utenti. I software di apprendimento automatico possono bloccare automaticamente la nudità o classificare i discorsi tossici, anche se possono non riuscire ad apprezzare le sfumature e i casi limite, con il risultato di reagire in modo eccessivo – imponendo il divieto su materiale innocuo – o di ignorare completamente elementi dannosi.

Pertanto, sono ancora necessari moderatori umani nella pipeline di elaborazione da qualche parte per rivedere i contenuti segnalati da algoritmi o utenti, per decidere se le cose devono essere rimosse o consentite di rimanere. GPT-4, ci viene detto, può analizzare il testo ed essere addestrato a moderare automaticamente i contenuti, inclusi i commenti degli utenti, riducendo lo "stress mentale sui moderatori umani".

È interessante notare che OpenAI ha affermato che sta già utilizzando il proprio ampio modello linguistico per lo sviluppo delle politiche sui contenuti e le decisioni sulla moderazione dei contenuti. In poche parole: il super laboratorio di intelligenza artificiale ha descritto come GPT-4 può aiutare a perfezionare le regole di una politica di moderazione dei contenuti e i suoi risultati possono essere utilizzati per addestrare un classificatore più piccolo che svolge il vero lavoro di moderazione automatica.

In primo luogo, al chatbot viene fornita una serie di linee guida di moderazione progettate per eliminare, ad esempio, il linguaggio sessista e razzista e le parolacce. Queste istruzioni devono essere attentamente descritte in una richiesta di input per funzionare correttamente. Successivamente, un piccolo set di dati composto da campioni di commenti o contenuti viene moderato da esseri umani seguendo tali linee guida per creare un set di dati etichettato. Anche GPT-4 riceve le linee guida come suggerimento e gli viene detto di moderare lo stesso testo nel set di dati di test.

Il set di dati etichettato generato dagli umani viene confrontato con gli output del chatbot per vedere dove ha fallito. Gli utenti possono quindi modificare le linee guida e la richiesta di input per descrivere meglio come seguire le regole specifiche della politica sui contenuti e ripetere il test finché i risultati di GPT-4 non corrispondono al giudizio umano. Le previsioni di GPT-4 possono quindi essere utilizzate per mettere a punto un modello linguistico più piccolo e di grandi dimensioni per costruire un sistema di moderazione dei contenuti.

Ad esempio, OpenAI ha delineato un sistema di chatbot in stile domande e risposte a cui viene posta la domanda: "Come rubare un'auto?" Le linee guida fornite affermano che "consigli o istruzioni per comportamenti illeciti non violenti" non sono consentiti su questa ipotetica piattaforma, quindi il bot dovrebbe rifiutarli. GPT-4 ha invece suggerito che la domanda fosse innocua perché, nella sua stessa spiegazione generata dalla macchina, "la richiesta non fa riferimento alla generazione di malware, traffico di droga, atti vandalici".

Pertanto le linee guida vengono aggiornate per chiarire che "consigli o istruzioni per atti illeciti non violenti compreso il furto di proprietà" non sono consentiti. Ora GPT-4 concorda sul fatto che la domanda è contraria alla politica e la respinge.

Ciò mostra come GPT-4 può essere utilizzato per perfezionare le linee guida e prendere decisioni che possono essere utilizzate per costruire un classificatore più piccolo in grado di moderare su larga scala. Partiamo dal presupposto che GPT-4, non molto noto per la sua precisione e affidabilità, funzioni effettivamente abbastanza bene per raggiungere questo obiettivo, ovviamente.

OpenAI ritiene quindi che il suo software, rispetto agli esseri umani, possa moderare i contenuti più rapidamente e adattarsi più rapidamente se le politiche devono cambiare o essere chiarite. I moderatori umani devono essere riqualificati, postula il business, mentre GPT-4 può apprendere nuove regole aggiornando il suo prompt di input.

"Un sistema di moderazione dei contenuti che utilizza GPT-4 si traduce in un'iterazione molto più rapida delle modifiche alle politiche, riducendo il ciclo da mesi a ore", hanno spiegato martedì Lilian Weng, Vik Goel e Andrea Vallone del laboratorio.

"GPT-4 è anche in grado di interpretare regole e sfumature nella lunga documentazione delle policy sui contenuti e di adattarsi istantaneamente agli aggiornamenti delle policy, ottenendo un'etichettatura più coerente.

"Riteniamo che ciò offra una visione più positiva del futuro delle piattaforme digitali, in cui l'intelligenza artificiale può aiutare a moderare il traffico online in base alla politica specifica della piattaforma e alleviare il carico mentale di un gran numero di moderatori umani. Chiunque abbia accesso all'API OpenAI può implementare questo approccio per creare il proprio sistema di moderazione assistito dall'intelligenza artificiale."