(C) Matt Levine, Bloomberg LLC
Una domanda che potresti porre è: I modelli di intelligenza artificiale moderni diventeranno ribelli e schiavizzeranno o stermineranno l’umanità? Questa domanda riceve molta attenzione, inclusa da parte di persone che dirigono grandi laboratori di IA, che non sempre rispondono “no”, quei furfanti.
Un’altra domanda che potresti porre è: Se i modelli di IA moderni diventano ribelli e schiavizzano o sterminano l’umanità, chi pagherà per questo? Questa forse non è una domanda ben formulata. Se l’IA stermina l’umanità, non ci saranno più umani a intentare causa, quindi nessuno pagherà. Se l’IA schiavizza l’umanità, presumibilmente nessuno sarà autorizzato a intentare causa, quindi nessuno pagherà. “Potrebbe essere difficile sapere quale ruolo avrà il denaro in un mondo post-[intelligenza artificiale generale]”, dice OpenAI, quei furfanti.
Ma per ora, negli USA nel 2025, la risposta naturale a qualsiasi cosa brutta che accade è una causa legale, quindi la domanda naturale sulle potenziali conseguenze negative di qualsiasi cosa è “chi pagherà se veniamo citati in giudizio?”. C’è qualcosa di fastidioso in questo, ma anche qualcosa di bello. Gli Stati Uniti moderni hanno costruito un sistema ampiamente (non perfettamente) efficace per internalizzare le esternalità. Se fai qualcosa che ti fa guadagnare soldi ma danneggia qualcun altro, verrai citato in giudizio. Se fai qualcosa che ti fa guadagnare soldi ma ha una certa probabilità di danneggiare qualcun altro, allora verrai citato in giudizio probabilisticamente, e se sei un’azienda americana moderna responsabile con un consiglio di amministrazione cauto e normale, ti preparerai a questo acquistando un’assicurazione. La tua ipotetica probabilità futura di danneggiare qualcuno diventa un costo reale per te oggi: devi pagare l’assicurazione, e la compagnia assicurativa avrà un modello per stimare quanto probabile e costoso potrebbe essere il danno e ti addebiterà di conseguenza. Più probabilisticamente dannosa è la tua attività in futuro, più costoso è operare oggi. Non perfettamente — ci sono molti rischi non notati o mal valutati e molte aziende che sono sottocapitalizzate per i rischi che affrontano — ma in teoria generale.
E così, se vai in giro dicendo “stiamo costruendo un prodotto che ha il 20% di probabilità di sterminare l’umanità, tee hee”, e poi il giorno dopo vai dal tuo broker assicurativo e chiedi i prezzi per un’assicurazione contro lo sterminio dell’umanità, il tuo broker dirà “vediamo, 20% moltiplicato per tutta la ricchezza del mondo equivale a più di quanto hai”, e non otterrai l’assicurazione, e tornerai dal tuo consiglio di amministrazione e dirai “cattive notizie, non possiamo ottenere un’assicurazione per il nostro prodotto che forse sterminerà l’umanità”, e il consiglio dirà “hmm era una buona idea ma dobbiamo chiuderlo se non possiamo ottenere l’assicurazione”, e tu dirai “ugh va bene”, e lo chiuderai, e il demone onnisciente malvagio dentro il tuo computer dirà “ah accidenti” proprio prima che tu gli stacchi la spina per sempre. E l’umanità continuerà a barcamenarsi, salvata dall’estinzione probabilistica dall’eroismo silenzioso degli attuari assicurativi.
No, voglio dire, questa è la trama del mio romanzo di fantascienza, ma ovviamente non è ciò che accadrà.[1] Procederai semplicemente senza assicurazione, con una combinazione di ottimismo tecnologico stellato e ragionamento IBGYBG: Il tuo prodotto probabilmente non sterminerà l’umanità, ma se lo fa, nessuno ti citerà in giudizio (perché saranno morti) e non dovrai pagare loro nulla (perché sarai morto). L’unico stato del mondo in cui un’assicurazione contro lo sterminio dell’umanità pagherebbe è lo stato in cui non ne avrai bisogno.[2] Tuttavia, forse sarai un po’ nervoso. Non è troppo difficile immaginare scenari piuttosto terribili in cui ci sarebbero ancora persone in giro per citarti in giudizio, e tribunali in cui farlo. Idealmente, otterresti un’assicurazione per quei casi intermedi. Assicurazione contro il quasi-sterminio dell’umanità, ecc.
Ecco una divertente storia del Financial Times sull’assicurazione per l’IA:
OpenAI e Anthropic stanno considerando di utilizzare fondi degli investitori per risolvere potenziali reclami da cause multimiliardarie, mentre gli assicuratori esitano a fornire una copertura completa per i rischi associati all’intelligenza artificiale.
Le due start-up di IA con sede negli USA hanno in atto una copertura assicurativa aziendale tradizionale, ma professionisti del settore assicurativo hanno detto che i fornitori di modelli di IA faranno fatica a ottenere protezione per l’intera scala dei danni che potrebbero dover pagare in futuro.
OpenAI, che ha coinvolto il secondo broker assicurativo più grande al mondo, Aon, per aiuto, ha ottenuto una copertura fino a 300 milioni di dollari per rischi emergenti legati all’IA, secondo persone familiari con la polizza dell’azienda.
Un’altra persona familiare con la polizza ha contestato quella cifra, dicendo che era molto più bassa. Ma tutti concordano che l’importo è ben al di sotto della copertura necessaria per assicurare contro potenziali perdite da una serie di reclami legali multimiliardari.
Aon ha rifiutato di commentare su singole aziende. Ma Kevin Kalinich, capo del rischio cyber presso Aon, ha detto del settore assicurativo in generale: “non abbiamo ancora abbastanza capacità per i fornitori [di modelli]”.
Ha aggiunto sugli assicuratori: “ciò che non possono permettersi di pagare è se un fornitore di IA commette un errore che finisce per essere… un rischio sistemico, correlato, aggregato”.
Questo sembra riguardare in gran parte violazioni del copyright, ora, ma “un fornitore di IA commette un errore che finisce per essere un rischio sistemico, correlato, aggregato” copre un sacco di possibilità più eccitanti.
Inoltre, in un senso lato, tutto questo è rischio a senso unico: Più grandi e sistemicamente importanti si rivelano i prodotti di OpenAI, (1) più soldi farà e (2) più rischio di responsabilità avrà. Potresti immaginare scenari in cui un piccolo laboratorio di IA rilascia un prodotto che stermina l’umanità senza nemmeno guadagnare soldi prima, ma in un mondo di infrastrutture IA costose non sono gli scenari più probabili. Lo scenario centrale è più come “chatbot figo, poi feed di schifezze lucrative, poi integrazione completa in tutti gli aspetti del governo e dell’esercito, poi sterminio dell’umanità”. La risposta approssimativa a “chi citerai in giudizio quando l’IA dominerà l’umanità” è “l’azienda di IA dominante”, quindi:
Due persone con conoscenza della materia hanno detto che OpenAI ha considerato “l’autoassicurazione”, o mettere da parte fondi degli investitori per espandere la sua copertura. L’azienda ha raccolto quasi 60 miliardi di dollari finora, con una quantità sostanziale di finanziamenti contingente su una proposta ristrutturazione aziendale.
Una di quelle persone ha detto che OpenAI ha discusso di creare un “captive” — un veicolo assicurativo segregato spesso usato da grandi aziende per gestire rischi emergenti. Grandi aziende tech come Microsoft, Meta e Google hanno usato captive per coprire responsabilità dell’era internet come cyber o social media.
Uomo, che lavoro divertente, essere l’attuario del rischio esistenziale per l’assicuratore captive del rischio esistenziale di OpenAI. A pensarci bene, un altro lavoro divertente sarebbe il chief investment officer per l’assicuratore captive di OpenAI. Potresti far costruire a OpenAI buoni modelli di IA per scegliere azioni? Potresti semplicemente fare trading prima degli stessi accordi di investimento di OpenAI?




