L'intelligenza artificiale dalla A alla Z
CasaCasa > Blog > L'intelligenza artificiale dalla A alla Z

L'intelligenza artificiale dalla A alla Z

Jan 17, 2024

Man mano che l’intelligenza artificiale diventa una parte sempre più importante del nostro mondo, è facile perdersi nel suo mare di gergo. Ma orientarsi non è mai stato così importante come oggi.

L’intelligenza artificiale è destinata ad avere un impatto importante sul mercato del lavoro nei prossimi anni (vedi: Automazione). Le discussioni su come gestirlo stanno giocando un ruolo sempre più importante nel nostro dibattito politico (vedi: Regolamento). E alcuni dei suoi concetti più cruciali sono cose che non ti saranno state insegnate a scuola (vedi: Pressione competitiva).

Cercare di mettersi al passo può essere difficile. La ricerca sull’intelligenza artificiale è complicata e gran parte del linguaggio è nuovo anche per i ricercatori stessi. Ma non c’è motivo per cui il pubblico non possa affrontare le grandi questioni in gioco, come abbiamo imparato a fare con il cambiamento climatico e Internet. Per aiutare tutti a impegnarsi più pienamente nel dibattito sull’intelligenza artificiale, TIME ha messo insieme un pratico glossario della sua terminologia più comune.

Che tu sia un principiante assoluto o che tu conosca già i tuoi AGI dai tuoi GPT, questo dalla A alla Z è progettato per essere una risorsa pubblica per tutti coloro che sono alle prese con il potere, le promesse e i pericoli dell'intelligenza artificiale.

AGI sta per Intelligenza Generale Artificiale, un’ipotetica tecnologia futura in grado di svolgere i compiti economicamente più produttivi in ​​modo più efficace di un essere umano. Una tale tecnologia potrebbe anche essere in grado di portare alla luce nuove scoperte scientifiche, ritengono i suoi sostenitori. I ricercatori tendono a non essere d’accordo sulla possibilità che l’AGI sia possibile o, se lo è, quanto lontano rimanga. Ma OpenAI e DeepMind, le due principali organizzazioni di ricerca sull’intelligenza artificiale a livello mondiale, sono entrambe espressamente impegnate a costruire l’AGI. Alcuni critici sostengono che AGI sia poco più che un termine di marketing. (Vedi: campagna pubblicitaria.)

Il “problema di allineamento” è una delle sfide più profonde per la sicurezza a lungo termine nell’intelligenza artificiale. L'intelligenza artificiale di oggi non è in grado di sopraffare i suoi progettisti. Ma un giorno, molti ricercatori si aspettano, potrebbe accadere. In quel mondo, le modalità attuali di addestramento delle IA potrebbero portare a danneggiare l’umanità, sia nel perseguimento di obiettivi arbitrari, sia come parte di una strategia esplicita per cercare il potere a nostre spese. Per ridurre il rischio, alcuni ricercatori stanno lavorando per “allineare” l’intelligenza artificiale ai valori umani. Ma questo problema è difficile, irrisolto e nemmeno pienamente compreso. Molti critici affermano che il lavoro per risolverlo sta passando in secondo piano poiché gli incentivi aziendali spingono i principali laboratori di intelligenza artificiale a concentrare attenzione e potenza di calcolo per rendere le loro IA più capaci. (Vedi: Pressione competitiva.)

L’automazione è il processo storico in cui il lavoro umano viene sostituito, o assistito, dalle macchine. Le nuove tecnologie – o meglio, le persone incaricate di implementarle – hanno già sostituito molti lavoratori umani con macchine che non richiedono salario, dagli operai delle catene di montaggio delle automobili ai commessi dei negozi di alimentari. Secondo un recente documento di OpenAI e una ricerca di Goldman Sachs, le scoperte di ultima generazione dell’intelligenza artificiale potrebbero comportare la perdita del lavoro di molti più colletti bianchi. Quasi un quinto dei lavoratori statunitensi potrebbe avere più della metà delle proprie attività lavorative quotidiane automatizzate da un modello linguistico di grandi dimensioni, hanno previsto i ricercatori di OpenAI. A livello globale, 300 milioni di posti di lavoro potrebbero essere automatizzati nel prossimo decennio, prevedono i ricercatori di Goldman Sachs. Se i guadagni di produttività derivanti da questo sconvolgimento porteranno a una crescita economica su vasta scala o semplicemente a un ulteriore aumento della disuguaglianza della ricchezza, dipenderà da come l’intelligenza artificiale sarà tassata e regolamentata. (Vedi: Regolamento.)

I sistemi di apprendimento automatico sono descritti come “di parte” quando le decisioni che prendono sono costantemente pregiudizievoli o discriminatorie. È stato scoperto che i software di condanna potenziati dall’intelligenza artificiale raccomandano pene detentive più elevate per i delinquenti neri rispetto a quelli bianchi, anche a parità di crimini. E alcuni software di riconoscimento facciale funzionano meglio per i volti bianchi rispetto a quelli neri. Questi fallimenti spesso si verificano perché i dati su cui sono stati addestrati questi sistemi riflettono le disuguaglianze sociali. (Vedi: Dati.) Le IA moderne sono essenzialmente replicatori di modelli: ingeriscono grandi quantità di dati attraverso una rete neurale, che impara a individuare modelli in tali dati. (Vedi: Rete neurale). Se ci sono più volti bianchi che volti neri in un set di dati sul riconoscimento facciale, o se i dati sulle condanne passate indicano che i delinquenti neri sono condannati a pene detentive più lunghe rispetto a quelli bianchi, allora i sistemi di apprendimento automatico possono imparare le lezioni sbagliate e iniziare ad automatizzare quelle ingiustizie.