
OpenAI ha pubblicato lunedì quello che chiama un 'piano economico' per l'IA: un documento vivo che espone le politiche che l'azienda ritiene di poter sviluppare con il governo degli Stati Uniti e i suoi alleati.
Il piano, che include un'introduzione di Chris Lehane, VP affari globali di OpenAI, afferma che gli Stati Uniti devono agire per attrarre miliardi di finanziamenti per i chip, i dati, l'energia e il talento necessari per 'vincere sull'IA'.
'Oggi, mentre alcuni paesi accantonano l'IA e il suo potenziale economico', ha scritto Lehane, 'il governo degli Stati Uniti può preparare la strada affinché la sua industria dell'IA possa continuare a guidare l'innovazione globale del paese proteggendo la sicurezza nazionale'.
OpenAI ha ripetutamente invitato il governo degli Stati Uniti ad adottare azioni più sostanziali sull'IA e sull'infrastruttura per sostenerne lo sviluppo. Il governo federale ha lasciato in gran parte la regolamentazione dell'IA agli Stati, una situazione descritta da OpenAI nel piano come insostenibile.
Nel 2024 da solo, i legislatori statali hanno presentato quasi 700 proposte di legge relative all'IA, alcune delle quali in conflitto tra loro. Ad esempio, il Responsible AI Governance Act del Texas impone onerose responsabilità ai produttori di modelli AI open source.
Il CEO di OpenAI, Sam Altman, ha criticato anche le leggi federali attualmente in vigore, come il CHIPS Act, che mirava a rivitalizzare l'industria semiconduttori degli Stati Uniti attirando investimenti nazionali dai principali produttori di chip del mondo. In una recente intervista con Bloomberg, Altman ha dichiarato che il CHIPS Act 'non è stato efficace come speravamo nessuno di noi' e che pensa che ci sia 'un'opportunità reale' per l'amministrazione Trump 'di fare qualcosa di molto meglio come azione successiva'.
'La cosa su cui sono davvero d'accordo [con Trump] è che è incredibile quanto sia diventato difficile costruire cose negli Stati Uniti', ha detto Altman nell'intervista. 'Centrali elettriche, data center, qualsiasi cosa del genere. Capisco come si accumulino gli intrighi burocratici, ma non è utile per il paese in generale. È particolarmente non utile quando si pensa a cosa deve accadere affinché gli Stati Uniti guidino l'IA. E gli Stati Uniti devono davvero guidare l'IA'.
Per alimentare i data center necessari per sviluppare e far funzionare l'IA, il piano di OpenAI raccomanda un aumento 'radicale' della spesa federale per l'energia e la trasmissione dei dati e la costruzione significativa di 'nuove fonti di energia', come solare, parchi eolici e nucleare. OpenAI, insieme ai suoi rivali nel campo dell'IA, ha precedentemente sostenuto progetti di energia nucleare, sostenendo che siano necessari per soddisfare le esigenze energetiche dei data center di prossima generazione.
Giganti della tecnologia come Meta e AWS hanno incontrato ostacoli con i loro sforzi nucleari, sebbene per motivi non legati direttamente all'energia nucleare stessa.
Nel breve termine, il piano di OpenAI propone che il governo 'sviluppi le migliori pratiche' per la distribuzione dei modelli per proteggere contro gli abusi, 'semplifichi' il coinvolgimento dell'industria dell'IA con le agenzie di sicurezza nazionale e sviluppi controlli sulle esportazioni che consentano la condivisione dei modelli con gli alleati limitando la loro esportazione verso 'nazioni avversarie'. Inoltre, il piano incoraggia il governo a condividere determinate informazioni relative alla sicurezza nazionale, come briefing sulle minacce all'industria dell'IA, con i fornitori e ad aiutare i fornitori a garantire risorse per valutare i rischi dei loro modelli.
'L'approccio del governo federale alla sicurezza e alla sicurezza dei modelli di frontiera dovrebbe semplificare i requisiti', recita il piano. 'Esportare in modo responsabile ... modelli ai nostri alleati e partner li aiuterà a costruire i loro ecosistemi in AI, comprese le loro comunità di sviluppatori che innovano con l'IA e distribuiscono i suoi benefici, mentre costruiscono anche l'IA su tecnologia statunitense, non su tecnologia finanziata dal Partito Comunista Cinese'.
OpenAI già conta alcuni dipartimenti governativi statunitensi tra i suoi partner e, nel caso in cui il suo piano guadagni consenso tra i responsabili politici, ha la possibilità di aggiungerne altri. L'azienda ha accordi con il Pentagono per lavori di sicurezza informatica e altri progetti correlati ed ha collaborato con la startup della difesa Anduril per fornire la sua tecnologia AI ai sistemi che l'esercito statunitense utilizza per contrastare gli attacchi con droni.
Nel suo piano, OpenAI chiede la redazione di standard 'riconosciuti e rispettati' da altre nazioni e organizzazioni internazionali a nome del settore privato statunitense. Ma l'azienda si ferma prima di sostenere regole o decreti obbligatori. 'Il governo può creare un percorso definito e volontario per le aziende che sviluppano AI per lavorare con il governo per definire valutazioni dei modelli, testare i modelli e scambiare informazioni per supportare le salvaguardie delle aziende', recita il piano.
L'amministrazione Biden ha adottato una linea simile con il suo ordine esecutivo sull'IA, che ha cercato di attuare diversi standard di sicurezza e sicurezza dell'IA a livello elevato e volontari. L'ordine esecutivo ha istituito l'Istituto per la sicurezza dell'IA degli Stati Uniti (AISI), un organismo governativo federale che studia i rischi nei sistemi di IA, che ha collaborato con aziende tra cui OpenAI per valutare la sicurezza dei modelli. Ma Trump e i suoi alleati hanno promesso di abrogare l'ordine esecutivo di Biden, mettendo a rischio la sua codificazione e l'AISI.
Il piano di OpenAI affronta anche il copyright in relazione all'IA, un tema scottante. L'azienda sostiene che gli sviluppatori di IA dovrebbero poter utilizzare 'informazioni pubblicamente disponibili', inclusi contenuti protetti da copyright, per sviluppare modelli.
OpenAI, insieme a molte altre aziende di IA, allena modelli su dati pubblici provenienti da tutto il web. L'azienda ha accordi di licenza con diversi piattaforme e editori e offre modi limitati per i creatori di 'opt-out' dallo sviluppo dei loro modelli. Ma OpenAI ha anche dichiarato che sarebbe 'impossibile' allenare modelli di IA senza utilizzare materiali protetti da copyright, e diversi creatori hanno citato in giudizio l'azienda per aver allenato sui loro lavori senza autorizzazione.
Altro attori, inclusi sviluppatori in altri paesi, non fanno alcuno sforzo per rispettare o collaborare con i proprietari dei diritti di proprietà intellettuale
Se gli Stati Uniti e le nazioni simili non affrontano questo squilibrio attraverso misure sensate che contribuiscano ad avanzare l'IA a lungo termine, lo stesso contenuto verrà comunque usato altrove per l'allenamento dell'IA, ma a vantaggio di altre economie
[Il governo dovrebbe garantire] che l'IA abbia la capacità di apprendere da informazioni universalmente pubblicamente disponibili, proprio come fanno gli esseri umani, proteggendo anche i creatori da repliche digitali non autorizzate
Resta da vedere quali parti del piano di OpenAI, se del caso, influenzeranno la legislazione. Ma le proposte sono un segnale che OpenAI intende rimanere un attore chiave nella corsa per una politica unificata sull'IA degli Stati Uniti.
Nella prima metà dell'anno scorso, OpenAI ha triplicato le sue spese di lobbying, spendendo 800.000 dollari contro i 260.000 dollari di tutto il 2023. L'azienda ha anche portato ex leader governativi nei suoi ranghi esecutivi, tra cui l'ex funzionario del Dipartimento della Difesa Sasha Baker, il capo della NSA Paul Nakasone e Aaron Chatterji, precedentemente economista capo al Dipartimento del Commercio sotto il presidente Joe Biden.
Con le nuove assunzioni e l'espansione della sua divisione affari globali, OpenAI è stata più vocale su quali leggi e regole sull'IA preferisce, ad esempio nel sostenere i disegni di legge del Senato che istituirebbero un organismo federale per la regolamentazione dell'IA e fornire borse di studio federali per la Ricerca e Sviluppo in AI. L'azienda si è opposta anche ai disegni di legge, in particolare al SB 1047 della California, sostenendo che avrebbe soffocato l'innovazione dell'IA e allontanato i talenti.
TechCrunch ha una newsletter focalizzata sull'IA! Iscriviti qui per riceverla nella tua casella di posta ogni mercoledì.