L’elenco degli ospiti invitati era interessante: il CEO di X Elon Musk, il CEO di Meta Platforms Mark Zuckerberg, il CEO di Alphabet Sundar Pichai, il CEO di Nvidia Jensen Huang, il CEO di Microsoft Satya Nadella, il CEO di IBM Arvind Krishna, l’ex CEO di Microsoft Bill Gates e AFL-CIO. La presidente della federazione del lavoro Liz Shuler. I protagonisti del mondo tecnologico erano a Capitol Hill la scorsa settimana per discutere con i legislatori degli strumenti e della regolamentazione dell’intelligenza artificiale generativa (AI). Sul tavolo c’era di tutto, dalle basi dell’intelligenza artificiale ai deep fake e agli attacchi alle infrastrutture critiche.
L’insolito briefing privato è stato il momento in cui gli esperti hanno delineato le loro visioni sul potenziale dell’intelligenza artificiale per cambiare l’esistenza quotidiana, mentre i senatori statunitensi, solitamente loquaci, sono rimasti in silenzio. È stata una sessione di legislatori che hanno imparato e ascoltato piuttosto che vantarsi e ragliare.
Alla fine, l’obiettivo di regolamentare la tecnologia dirompente emergente sembrava auspicabile, ma anche sfuggente.
Oltre 60 senatori hanno partecipato all’insolita sessione con i rampolli della tecnologia. I legislatori sembrano ansiosi di respingere i pericoli della tecnologia emergente. Sono state lanciate molte idee, secondo Cablato, come la necessità di lavoratori altamente qualificati, sfamare gli affamati del mondo, una nuova agenzia per l’intelligenza artificiale e potenziare il National Institute of Standards and Technology (NIST). Come previsto, sono stati ripetuti una serie di dibattiti in corso, come la preferenza per le basi dell’IA open source o closed source, la messa in primo piano di come/se i modelli di intelligenza artificiale danneggiano le persone e l’anticipazione dei futuri ma gravi rischi dell’IA che potrebbero emergere.
ChatGPT di OpenAI è stato un presagio sin dal suo rilascio lo scorso anno. Il chatbot ha spinto i concorrenti ad accelerare la propria ricerca e sviluppo e a stabilire modelli linguistici comparabili. I senatori sembravano rilassarsi un po’ quando è stato loro ricordato che l’intelligenza artificiale non è semplicemente per il futuro; piuttosto, lo usiamo da anni per identificare i libri che potremmo leggere, completare automaticamente i testi del nostro smartphone, alimentare e trarre vantaggio dagli algoritmi dei social media o persino dai baby monitor.
La sessione è stata successiva agli impegni annunciati a luglio dall’amministrazione Biden-Harris che cercavano di “cogliere l’enorme promessa e gestire i rischi posti dall’intelligenza artificiale (AI) e di proteggere i diritti e la sicurezza degli americani”. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI hanno annunciato quindi di aver firmato impegni volontari per contribuire a procedere verso uno sviluppo sicuro, protetto e trasparente della tecnologia AI. Martedì, Adobe, IBM, Nvidia e altre 5 società hanno dichiarato di aver firmato gli impegni volontari sull’intelligenza artificiale del presidente Joe Biden che richiedono passaggi come la filigrana dei contenuti generati dall’intelligenza artificiale.
Osservando la questione in modo obiettivo, ha senso che i creatori di intelligenza artificiale siano quelli che guidano le valutazioni dei sistemi di intelligenza artificiale prima della loro implementazione? Dire che sono quelli che capiscono meglio i fondamenti dell’intelligenza artificiale sembra una logica debole.
Un relatore ha citato la sezione 230 del Communications Decency Act del 1996, che protegge la libertà di espressione online per gli utenti statunitensi proteggendo i fornitori delle piattaforme. “Nessun fornitore o utente di un servizio informatico interattivo potrà essere trattato come editore o portavoce delle informazioni fornite da un altro fornitore di contenuti informativi”. Nel nuovo mondo delle basi dell’intelligenza artificiale, gli utenti e i creatori della tecnologia sarebbero ritenuti responsabili della loro generazione di intelligenza artificiale, senza più l’immunità garantita dalla responsabilità.
Indipendentemente dai diversi approcci, a partire dalle basi dell’IA, i CEO del settore tecnologico sono sembrati unanimi nel desiderio di una leadership statunitense nella politica dell’IA.
La ricerca di Musk per andare oltre i fondamenti dell’intelligenza artificiale
A febbraio, il governatore della California Gavin Newsom si è unito a Musk per annunciare che l’ex quartier generale della Hewlett-Packard a Palo Alto sarebbe diventato la base operativa di ingegneria e intelligenza artificiale di Tesla.
A marzo, Musk e un gruppo di esperti e dirigenti di intelligenza artificiale avevano chiesto una pausa di 6 mesi nello sviluppo di sistemi più potenti del GPT-4 di OpenAI, citando potenziali rischi per la società. “Pause Giant AI Experiments: An Open Letter” descrive come “l’intelligenza artificiale avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate”. Oltre alla lettera aperta, i firmatari hanno pubblicato una serie di raccomandazioni politiche per aiutare a combattere i rischi derivanti dai sistemi avanzati di IA.
“L’intelligenza artificiale mi stressa”, ha detto Musk verso la fine di una presentazione di oltre 3 ore a marzo agli investitori Tesla sui piani aziendali. Gli ambiziosi sforzi di Tesla nel campo dell’intelligenza artificiale hanno avuto un ruolo importante nella presentazione del Master Plan 3 di Musk, che porta avanti la visione dell’azienda di convertire il mondo all’energia pulita.
È uno dei cofondatori del leader del settore OpenAI e Tesla utilizza sempre più l’intelligenza artificiale per il suo pilota automatico e il sistema di guida completamente autonoma. Musk ha espresso frustrazione nei confronti dei regolatori critici nei confronti degli sforzi per regolamentare il sistema di pilota automatico di Tesla.
A luglio, Musk ha annunciato i piani per una nuova società di intelligenza artificiale chiamata xAI.
Ad agosto, Tesla ha riferito che le sue prestazioni produttive nel secondo trimestre del 2023 erano direttamente correlate allo sviluppo dell’intelligenza artificiale (AI), che è entrata in una nuova fase con la produzione iniziale di computer per l’addestramento Dojo. Il supercomputer Dojo sarà in grado di elaborare enormi quantità di dati, compresi i video delle sue auto, per sviluppare ulteriormente software per auto a guida autonoma. Le complesse esigenze di formazione della rete neurale di Tesla saranno soddisfatte con questo hardware progettato internamente, poiché l’azienda ha stabilito che “migliore è la capacità di formazione della rete neurale, maggiore è l’opportunità per il nostro team Autopilot di iterare su nuove soluzioni”. Tesla prevede di spendere più di 1 miliardo di dollari su Dojo entro il prossimo anno.
Una settimana fa, Tesla ha registrato un rally del 6% dopo che Morgan Stanley ha affermato che il supercomputer Dojo della casa automobilistica completamente elettrica potrebbe alimentare un aumento di quasi 600 miliardi di dollari del valore di mercato contribuendo ad accelerare la sua incursione nei robotaxi e nei servizi software. Dojo può aprire nuovi mercati indirizzabili che “si estendono ben oltre la vendita di veicoli a un prezzo fisso”, hanno scritto in una nota gli analisti di Morgan Stanley guidati da Adam Jonas.
“Per noi è importante avere un arbitro”, ha detto Musk ai giornalisti dopo la sessione con i senatori. Ha spiegato che un regolatore “garantirebbe che le aziende intraprendano azioni sicure e nell’interesse del pubblico in generale”. Ha confermato di aver definito l’intelligenza artificiale “un’arma a doppio taglio” durante il forum. Musk ha espresso la sua opinione che l’incontro è stato un “servizio all’umanità” e ha detto che “potrebbe passare alla storia come molto importante per il futuro della civiltà”.
Hai un consiglio per CleanTechnica? Vuoi fare pubblicità? Vuoi suggerire un ospite per il nostro podcast CleanTech Talk? Contattaci qui.
Ossessione per i veicoli elettrici ogni giorno!
https://www.youtube.com/watch?v=videoseries
Non mi piacciono i paywall. Non ti piacciono i paywall. A chi piacciono i paywall? Qui a CleanTechnica, per un po’ abbiamo implementato un paywall limitato, ma ci è sempre sembrato sbagliato ed è sempre stato difficile decidere cosa dovremmo lasciare lì. In teoria, i tuoi contenuti più esclusivi e migliori sono protetti da un paywall. Ma poi lo leggono meno persone!! Quindi, abbiamo deciso di eliminare completamente i paywall qui a CleanTechnica. Ma…
Grazie!
Vendite Tesla nel 2023, 2024 e 2030
CleanTechnica utilizza link di affiliazione. Consulta la nostra politica qui.