sfondo
Stato: 04/11/2023 19:47
Il gigante tecnologico cinese Alibaba vuole essere coinvolto nel business dell’IA. Allo stesso tempo, Pechino sta preparando i requisiti statali. Ma anche i governi occidentali dovrebbero chiedersi: di quante regole ha bisogno la tecnologia?
Di Antonia Manweiler, tagesschau.de
È stato un grande annuncio per il gigante cinese di Internet Alibaba. Il dipartimento cloud del gruppo di trading online ha presentato oggi un concorrente dello script bot ChatGPT: il programma linguistico “Tongyi Qianwen”, che significa qualcosa come “mille domande sulla verità”, che utilizza anche l’intelligenza artificiale (AI). Ma solo dopo poco tempo, la gioia degli sviluppatori avrebbe dovuto ricevere un potente smorzamento. Allo stesso tempo, il regolatore cinese di Internet, “Cyberspace Administration of China”, ha pubblicato la prima bozza dei regolamenti previsti per i servizi di intelligenza artificiale.
In 21 punti, l’autorità presenta i potenziali requisiti che le aziende cinesi e gli sviluppatori di modelli di linguaggio AI potrebbero presto affrontare. Secondo Pechino, il contenuto dovrebbe riflettere i “valori fondamentali del socialismo”. Inoltre, non possono essere pubblicate informazioni che possano perturbare il sistema economico e sociale. Quando si sviluppano algoritmi, occorre prestare attenzione anche per evitare discriminazioni basate sul sesso o sull’età.
“allucinazioni” calmanti
Il problema degli sviluppatori dovrebbe essere anche la regola secondo cui tutti i contenuti devono essere onesti. Lo sviluppo di modelli di linguaggio AI è attualmente ancora in una fase iniziale. In molti casi, il software funziona ancora in modo impreciso ed è piuttosto soggetto a errori. Google, ad esempio, ha commesso un errore imbarazzante introducendo il suo chatbot “Cool”, che ha dato la risposta sbagliata sul telescopio James Webb nella sua prima apparizione pubblica. D’altra parte, il chat bot di Alibaba è inizialmente orientato alla vita lavorativa e ha lo scopo, ad esempio, di scrivere documenti o e-mail.
Tuttavia, resta da vedere quanto bene il bot resista alla concorrenza, afferma George Karapetyan, uno specialista di intelligenza artificiale presso la società di consulenza LPA. tagesschau.de. “Inoltre, secondo i rapporti iniziali degli utenti, il bot di Alibaba aveva effettivamente delle ‘allucinazioni’, il che alla fine significa che sta dando con sicurezza le risposte sbagliate.”
L’autorità di regolamentazione cinese ora vuole porre fine a tali contenuti falsi. Commenti e suggerimenti possono essere inseriti nell’Indice degli Statuti fino al 10 maggio. “Mentre il governo cinese inizia a regolamentare e imporre ciò che questi robot possono e non possono dire, ciò potrebbe rappresentare un ulteriore ostacolo nel compromesso tra innovazione e conformità”, ha affermato Karapetyan.
La tecnologia si sta sviluppando troppo velocemente?
D’altra parte, dal punto di vista dell’esperto, anche l’introduzione anticipata di regole aziendali chiare può essere utile per ridurre il rischio di risultati imprevisti. “Se la Cina riesce a definire linee guida chiare in una fase iniziale, questo offre anche opportunità”. Tuttavia, può essere difficile orchestrare una tecnologia che si sta sviluppando così rapidamente e in modo così intelligente. Ogni giorno viene riportato come gli utenti di Internet aggirino i meccanismi di protezione utilizzati per controllare i bot.
Alibaba è l’ultimo esempio di azienda cinese che dispone di un proprio script bot. Solo un giorno fa, la società di intelligenza artificiale con sede a Hong Kong SenseTime ha presentato il suo chatbot “SenseChat” in una demo dal vivo, a cui il mercato azionario ha reagito con un forte aumento dei prezzi. E, ultimo ma non meno importante, anche il motore di ricerca cinese Baidu ha mostrato il suo chatbot “Ernie Bot”, che però ha provocato un calo di entusiasmo e un calo del prezzo delle azioni.
“Al momento i robot cinesi sono ancora in ritardo e si concentrano principalmente sulla lingua cinese”, afferma Karapetyan, specializzato in intelligenza artificiale. Attualmente, ChatGPT, software progettato dalla startup OpenAI e supportato da Microsoft, è il “chiaro leader di mercato e gold standard” tra i chatbot.
Come stanno rispondendo i governi?
I rivali del settore tecnologico Microsoft e ChatGPT sono stati sotto pressione per far avanzare il business dell’IA, anche se il prodotto è ancora immaturo. Allo stesso tempo, dato il rapido sviluppo, cresce la pressione sui governi di tutto il mondo affinché trovino risposte alla domanda su come dovrebbe reagire il legislatore.
Negli USA, l’Information Technology Authority NTIA (“National Telecommunications and Information Administration”) ha annunciato oggi una consultazione pubblica su una possibile azione governativa. “Proprio come cibo e automobili entrano nel mercato solo quando sono sicuri, i sistemi di intelligenza artificiale devono rassicurare il pubblico, il governo e le imprese che sono adatti allo scopo”, ha affermato in una nota. In definitiva, l’autorità potrebbe raccomandare ai politici valutazioni di sicurezza o certificazioni AI.
Italia ChatGPT fissa una scadenza
I regolamenti governativi sulle nuove tecnologie sono oggetto di ricerca anche nell’Unione europea. Di recente, l’Autorità italiana per la protezione dei dati personali ha suscitato scalpore vietando per il momento ChatGPT nel paese. Le preoccupazioni principali riguardavano la massiccia raccolta di dati personali e la protezione dei minori. L’Italia ha concesso a OpenAI 20 giorni per segnalare ulteriori azioni dell’azienda. In caso contrario, potrebbe esserci una multa fino a 20 milioni di euro o il quattro percento delle vendite annuali.
Due anni fa, la Commissione Ue ha presentato una bozza di regolamento di Amnesty International che potrebbe entrare in vigore quest’anno. Paul Lukovic, capo della ricerca sull’intelligenza mista presso il Centro di ricerca tedesco per l’intelligenza artificiale (DFKI), afferma che anche in questo settore è urgentemente necessaria una regolamentazione. tagesschau.de. La tecnologia cambierà il mondo in un modo inimmaginabile anche oggi. Pertanto, semplicemente non si poteva lasciarli correre selvaggi nel senso di “crescita sfrenata”.
Possibile “filigrana” per i programmi Android
Lukowicz ritiene che siano necessarie regole più severe quando la vita umana, la salute o la libertà sono interessate, ma non in altre aree in cui la tecnologia non nuoce. Il problema non è la ricerca o lo sviluppo, ma piuttosto la questione di dove utilizzare la tecnologia.
A lungo termine, Lukowicz potrebbe immaginare una sorta di “filigrana” per i contenuti generati dai bot. Quando si parla di regole dell’intelligenza artificiale, l’esperto la paragona all’industria farmaceutica: anche con i medicinali, pochissime persone sanno come funzionano, ma funzionano. Sono necessari studi per i farmaci, sono in atto rigorose procedure di approvazione e i casi di danno da essi continuano. Dal punto di vista di Lukowicz, la cosa principale è un’analisi equilibrata costi-benefici.