Ars Technica ha chatbot ChatGPT e Bard AI Confronto in sette categorieBarzellette, ragionamento, problemi di matematica, riassunti, accertamento dei fatti, scrittura creativa e programmazione.
In ogni test, è stato utilizzato lo stesso prompt per entrambi i chatbot. Ars Technica ha ottenuto un punteggio basato sulla prima risposta generata dai chatbot.
Tuttavia, il test non è uno studio scientifico e i risultati possono variare da sessione a sessione a causa di elementi casuali. Tuttavia, il confronto fornisce una panoramica dei punti di forza e di debolezza di entrambi i modelli.
Nella categoria “Papà scherzaBard ha battuto di poco ChatGPT-4. Creando cinque barzellette piatte, su Internet sono state trovate tre barzellette Bard, mentre ChatGPT-4 ha fornito cinque barzellette non originali. Sebbene le barzellette Bard non abbiano sempre avuto successo, alcune possono essere considerate originali.
A volte Bard ha il vantaggio, a volte ChatGPT
Nella categoria Thinking, ChatGPT-4 ha impressionato per le sue conoscenze tecniche, mentre Bard è rimasto deluso. Nel campo dei compiti di matematica, ChatGPT-4 ha fornito una risposta corretta e dettagliata. Bard non è riuscito a segnare punti durante la ricerca dei fatti con una risposta incompleta a una domanda difficile. In un riepilogo dell’articolo, Bard batte ChatGPT-4 aggregando le informazioni.
Nella scrittura creativa, ChatGPT-4 supera di poco il Bardo con uno scritto originale e avvincente su Abraham Lincoln come inventore del basket. Bard ha ideato una sceneggiatura più lunga e dettagliata, anche se meno mirata.
Nel complesso, il test Ars Technica ha mostrato che entrambi i modelli hanno punti di forza e di debolezza ed è difficile scegliere un vincitore. Mentre Bard ha ottenuto punti in categorie come battute piatte, ChatGPT-4 è stato coinvolto nella controversia.