Tech

Questa settimana nell'IA: Come Kamala Harris potrebbe regolare l'IA

Ciao, amici, benvenuti alla newsletter regolare sull'IA di TechCrunch.

La scorsa domenica il Presidente Joe Biden ha annunciato di non avere più intenzione di cercare la rielezione, offrendo invece il suo 'pieno sostegno' alla VP Kamala Harris per diventare la candidata del Partito Democratico; nei giorni seguenti, Harris ha ottenuto il sostegno della maggioranza dei delegati democratici.

Harris si è espressa chiaramente sulla politica tecnologica e sull'IA; se dovesse vincere la presidenza, cosa significherebbe questo per la regolamentazione dell'IA negli Stati Uniti?

Il mio collega Anthony Ha ha scritto qualche parola in merito durante il fine settimana. Harris e il Presidente Biden avevano già detto che 'rifiutano la falsa scelta che suggerisce che possiamo proteggere il pubblico o promuovere l'innovazione'. In quel momento, Biden aveva emesso un ordine esecutivo chiedendo alle aziende di stabilire nuovi standard nello sviluppo dell'IA. Harris ha detto che gli impegni volontari erano 'un primo passo verso un futuro dell'IA più sicuro con molto altro a venire' perché 'in assenza di regolamentazione e forte supervisione governativa, alcune aziende tecnologiche scelgono di privilegiare il profitto rispetto al benessere dei loro clienti, alla sicurezza delle nostre comunità e alla stabilità delle nostre democrazie'.

Ho anche parlato con esperti di politica sull'IA per conoscere le loro opinioni. Per lo più, hanno detto che si aspettano una coerenza con un'amministrazione Harris, anziché un smantellamento della politica attuale sull'IA e una deregolamentazione generale che il campo di Donald Trump ha difeso.

Lee Tiedrich, consulente sull'IA presso il Global Partnership on Artificial Intelligence, ha detto a TechCrunch che il sostegno di Biden a Harris potrebbe 'aumentare le possibilità di mantenere la continuità' nella politica statunitense sull'IA. '[Questa è] delineata dall'ordine esecutivo sull'IA del 2023 e contrassegnata anche dal multilateralismo attraverso le Nazioni Unite, il G7, l'OCSE e altre organizzazioni', ha detto. 'L'ordine esecutivo e le azioni correlate chiedono anche una maggiore supervisione governativa sull'IA, incluso attraverso un maggior controllo, regole e politiche sull'IA delle agenzie, un focus sulla sicurezza e test e divulgazioni obbligatorie per alcuni grandi sistemi di IA'.

Sarah Kreps, professoressa di governo alla Cornell con un interesse speciale per l'IA, ha sottolineato che c'è una percezione entro certi segmenti dell'industria tecnologica che l'amministrazione Biden è stata troppo aggressiva nella regolamentazione e che l'ordine esecutivo sull'IA è stato 'un eccesso di microgestione'. Non si prevede che Harris eliminerà alcuno dei protocolli di sicurezza sull'IA istituiti sotto Biden, ma si chiede se un'amministrazione Harris potrebbe adottare un approccio regolamentare meno top-down per placare i critici.

Krystal Kauffman, ricercatrice presso il Distributed AI Research Institute, è d'accordo con Kreps e Tiedrich che Harris probabilmente continuerà l'opera di Biden per affrontare i rischi associati all'uso dell'IA e cercherà di aumentare la trasparenza sull'IA. Tuttavia, spera che, se Harris dovesse conquistare la presidenza, lanci una rete di stakeholder più ampia nella formulazione delle politiche - una rete che coinvolga i lavoratori dei dati le cui difficoltà (bassi salari, cattive condizioni di lavoro e problemi di salute mentale) spesso non vengono riconosciute.

“Harris deve includere le voci dei lavoratori dei dati che aiutano a programmare l'IA in queste importanti conversazioni in futuro”, ha detto Kauffman. “Non possiamo continuare a vedere riunioni a porte chiuse con i CEO delle aziende tecnologiche come mezzo per elaborare politiche. Questo ci porterà assolutamente lungo la strada sbagliata se continuerà”.

Notizie

Meta rilascia nuovi modelli: Meta questa settimana ha rilasciato Llama 3.1 405B, un modello di generazione e analisi del testo contenente 405 miliardi di parametri. Il suo modello 'aperto' più grande finora, Llama 3.1 405B sta facendo il suo ingresso in varie piattaforme e app di Meta, inclusa l'esperienza di IA di Meta su Facebook, Instagram e Messenger.

Adobe rinnova Firefly: Adobe ha rilasciato nuovi strumenti Firefly per Photoshop e Illustrator martedì, offrendo ai designer grafici più modi per utilizzare i modelli di IA interni dell'azienda.

Riconoscimento facciale a scuola: Una scuola inglese è stata ufficialmente ripresa dall'autorità di protezione dei dati del Regno Unito dopo aver utilizzato la tecnologia di riconoscimento facciale senza ottenere un consenso specifico per l'elaborazione delle scansioni facciali degli studenti.

Cohere raccoglie mezzo miliardo: Cohere, una startup di IA generativa fondata da ex ricercatori di Google, ha raccolto $500 milioni in nuovi finanziamenti da investitori, tra cui Cisco e AMD. A differenza di molti dei rivali startup di IA generativa, Cohere personalizza i modelli di IA per le grandi imprese — un fattore chiave nel suo successo.

Intervista al direttore AI della CIA: Come parte della serie continua di TechCrunch 'Donne nell'IA', io stessa ho intervistato Lakshmi Raman, direttore dell'IA presso la CIA. Abbiamo parlato del suo percorso verso il direttore così come dell'uso dell'IA il CIA, e dell'equilibrio che deve essere trovato tra l'adozione delle nuove tecnologie e il loro impiego responsabile.

Articolo di ricerca della settimana

Avete mai sentito parlare del transformer? È l'architettura di modello di IA preferita per compiti di ragionamento complessi, alimentando modelli come il GPT-4o di OpenAI, il Claude di Anthropic e molti altri. Ma, per quanto siano potenti i transformer, hanno i loro difetti. E così i ricercatori stanno investigando possibili alternative.

Uno dei candidati più promettenti sono i modelli di spazio di stato (SSM), che combinano le qualità di vari tipi di modelli di IA più vecchi, come le reti neurali ricorrenti e le reti neurali convoluzionali, per creare un'architettura più efficiente dal punto di vista computazionale in grado di elaborare sequenze lunghe di dati (pensate a romanzi e film). E una delle incarnazioni più forti degli SSM fino ad oggi, Mamba-2, è stata dettagliata in un articolo questo mese dai ricercatori Tri Dao (professore a Princeton) e Albert Gu (Carnegie Mellon).

Come il suo predecessore Mamba, Mamba-2 può gestire pezzi di input più grandi dei suoi equivalenti basati su transformer rimanendo competitivo, in termini di prestazioni, con i modelli basati su transformer su certi compiti di generazione del linguaggio. Dao e Gu lasciano intendere che, se gli SSM continuano a migliorare, un giorno funzioneranno su hardware di serie — e offriranno applicazioni di IA generativa più potenti di quanto sia possibile con i transformer odierni.

Modello della settimana

In un altro sviluppo recente legato all'architettura, un team di ricercatori ha sviluppato un nuovo tipo di modello di IA generativa che affermano possa eguagliare o battere sia i più forti transformer che Mamba in termini di efficienza.

Sono entusiasta di condividere un progetto su cui ho lavorato per oltre un anno, che credo cambierà radicalmente il nostro approccio ai modelli di linguaggio.

Abbiamo progettato una nuova architettura, che sostituisce lo stato nascosto di una RNN con un modello di apprendimento automatico. Questo modello comprime… pic.twitter.com/DEcI3nB1xC

— Karan Dalal (@karansdalal) 8 luglio 2024

Chiamati modelli di addestramento al momento del test (modelli TTT), l'architettura è in grado di ragionare su milioni di token, secondo i ricercatori, potenzialmente scalando fino a miliardi di token in futuri design raffinati. (Nella generazione di IA, i 'token' sono pezzi di testo grezzo e altre informazioni di piccole dimensioni). Poiché i modelli TTT possono elaborare molti più token rispetto ai modelli convenzionali e lo fanno senza sforzare eccessivamente le risorse hardware, sono adatti a alimentare applicazioni di IA generativa 'next-gen', ritengono i ricercatori.

Per una analisi approfondita dei modelli TTT, date un'occhiata al nostro recente articolo.

Bagaglio a mano

Stability AI, la startup di IA generativa che gli investitori, tra cui il cofondatore di Napster Sean Parker, recentemente hanno salvato dal fallimento finanziario, ha causato parecchia controversia riguardo ai suoi nuovi termini di utilizzo dei prodotti e alle politiche di licenza restrittive.

Fino a poco tempo fa, per utilizzare il nuovo modello di immagine AI aperta di Stability AI, Stable Diffusion 3, commercialmente, le organizzazioni con un fatturato annuo inferiore a $1 milione dovevano sottoscrivere una licenza 'creator' che limitava il numero totale di immagini che potevano generare a 6000 al mese. Il problema più grande per molti clienti, però, era costituito dai termini restrittivi di ottimizzazione, che davano (o almeno sembravano dare) a Stability AI il diritto di pretendere commissioni e di esercitare il controllo su qualsiasi modello addestrato su immagini generate da Stable Diffusion 3.

L'approccio forte di Stability AI ha portato CivitAI, uno dei più grandi ospiti di modelli generativi di immagini, a imporre un divieto temporaneo sui modelli basati o addestrati su immagini da Stable Diffusion 3 mentre cercava consulenza legale sulla nuova licenza.

“Il problema è che, dalla nostra attuale comprensione, questa licenza conferisce a Stability AI troppo potere sull'uso non solo di qualsiasi modello ottimizzato su Stable Diffusion 3, ma su qualsiasi altro modello che includa immagini di Stable Diffusion 3 nei loro set di dati”, ha scritto CivitAI in un post sul suo blog.

In risposta alle critiche, all'inizio di questo mese Stability AI ha dichiarato che regolerà i termini di licenza per Stable Diffusion 3 per consentire un uso commerciale più liberale. “Finché non lo usi per attività illegali, o violi chiaramente la nostra licenza o la nostra politica di utilizzo accettabile, Stability AI non ti chiederà mai di eliminare le immagini risultanti, la messa a punto o altri prodotti derivati — anche se non pagherai mai Stability AI”, Stability ha chiarito in un post sul blog.

La saga mette in luce le insidie legali che continuano a colpire l'IA generativa — e, correlativamente, fino a che punto “aperto” rimanga soggetto a interpretazioni. Chiamatemi pessimista, ma il crescente numero di licenze controversamente restrittive mi fa pensare che l'industria dell'IA non raggiungerà un consenso — o si avvicinerà alla chiarezza — tanto presto.

Related Articles

Back to top button