Indice
A intelligenza artificiale È stato un argomento caldo su Internet. Lo strumento utilizzato per raccogliere informazioni generali che gli esseri umani depositano su Internet è estremamente utilizzato in diverse aree della nostra vita. Recentemente la creazione di cose diverse è la più comune tra loro, come la creazione di immagini, testi, video e molto altro. Ma cosa accadrà all'Intelligenza Artificiale in 2023? Molte discussioni che vanno dalla copia degli artisti all'innovazione tecnologica ruotano attorno a questo argomento, e dovrebbe essere qualcosa in questa idea che dovremmo vedere il prossimo anno.
Problemi nella creazione di opere d'arte tramite l'IA
Con il successo di obiettivo, l'app per selfie basata sull'intelligenza artificiale di Prisma Lab che è diventato virale, puoi aspettarti anche molte app in questo senso. E aspettati che anche loro possano essere indotti a creare immagini. XNUMX+ - immagini inappropriate per il lavoro, spesso correlate a contenuti di nudità - e sessualizzazione e alterazione sproporzionate dell'aspetto delle donne, un tentativo di ridurre al minimo il potenziale uso improprio dello strumento, più di quanto già accada.
Massimiliano Gantz, un ricercatore politico senior presso la Mozilla Foundation, ha affermato di sperare che l'integrazione dell'intelligenza artificiale che costruisce le cose nella tecnologia di consumo amplificherà gli effetti di questi sistemi di "difesa", sia buoni che cattivi. IL Diffusione stabile, ad esempio, ha ricevuto miliardi di immagini da Internet finché non ha "imparato" ad associare determinate parole e concetti a determinate immagini. I modelli di generazione del testo sono stati facilmente manipolati per impedire loro di produrre contenuti che sostengono visioni offensivo o produrre notizie false.

Mike Cook, un membro del gruppo di ricerca aperto Knives and Paintbrushes, è d'accordo con Gahntz quando afferma che l'intelligenza artificiale creativa continuerà a dimostrarsi una forza importante - e sfortunatamente, proporzionalmente problematica - per il cambiamento. Ma pensa che il 2023 dovrebbe essere l'anno in cui l'intelligenza artificiale che crea le cose "finalmente sarà all'altezza dei soldi coinvolti".
Non è sufficiente motivare una comunità di esperti [a creare nuove tecnologie]: affinché la tecnologia diventi parte della nostra vita a lungo termine, deve far guadagnare molti soldi a qualcuno o avere un impatto significativo sulla vita quotidiana delle persone pubblico in generale. Quindi prevedo che assisteremo a una seria spinta per fare in modo che l'IA generativa raggiunga effettivamente una di queste due cose, con alterne fortune.
Mike Cook, membro del gruppo di ricerca aperto Knives and Paintbrushes sulle sue previsioni per l'uso delle creazioni di intelligenza artificiale fino al 2023
Gli artisti cercano di rivendicare i loro diritti
O DeviantArt ha rilasciato un generatore artistico AI integrato Diffusione stabile e adeguato agli arti pubblicati dagli utenti della piattaforma. Il generatore di opere d'arte ha ricevuto una forte disapprovazione da parte degli ex utenti di DeviantArt, che hanno criticato la mancanza di trasparenza della piattaforma nell'utilizzo della grafica caricata per addestrare il sistema.
I creatori dei sistemi più popolari — OpenAI e Stabilità AI - affermano di aver adottato misure per limitare la quantità di contenuti dannosi prodotti dai loro sistemi. Ma a giudicare da molte delle generazioni sui social media, è chiaro che c'è del lavoro da fare - e molto, tra l'altro.
Massimiliano Gantz, confronta il processo di creazione dell'arte tramite l'intelligenza artificiale alle controversie in corso sulla moderazione dei contenuti sui social media. Il ricercatore afferma che i set di dati richiedono una cura attiva per risolvere questi problemi, comprese le comunità che tendono a consumare solo una piccola parte di questo contenuto.
OpenAI, Stability AI e questioni legali
Stability AI, che finanzia in gran parte lo sviluppo di Stable Diffusion, ha recentemente ceduto alle pressioni dell'opinione pubblica segnalando che avrebbe consentito agli artisti di rinunciare al set di dati utilizzato per addestrare il modello. Diffusione stabile nella prossima generazione. Attraverso un sito web, i titolari dei diritti sulle proprie opere potranno richiedere le cancellazioni prima dell'inizio della formazione che verrà applicata agli strumenti.
OpenAI, invece, non offre questo meccanismo di esclusione, preferendo collaborare con organizzazioni come Shutterstock per concedere in licenza parti delle tue gallerie di immagini. Ma dato il contraccolpo legale e pubblicitario che deve affrontare insieme a Stability AI, è probabilmente solo una questione di tempo prima che segua l'esempio del suo fratello di mercato.
E nel senso legale della cosa, puoi anche vedere un po' di movimento. Negli Stati Uniti, il Microsoft, GitHub e - guardala di nuovo qui - il OpenAI sono stati citati in giudizio in un'azione legale collettiva accusandoli di aver violato la legge sul copyright consentendo il Secondo pilota, un servizio GitHub che suggerisce in modo intelligente righe di codice, in qualche modo - a pagamento, gratuitamente o con qualsiasi mezzo - fornisce sezioni di codice concesso in licenza senza fornire un credito adeguato.
Forse per evitare ulteriori complicazioni legali, GitHub ha recentemente aggiunto impostazioni per impedire la visualizzazione del codice pubblico nei suggerimenti di Copilot, oltre a piani per introdurre una funzionalità che farà riferimento alla fonte dei suggerimenti di codice. Ma si tratta di misure che non sono ancora state seriamente testate per entrare in vigore.
Soluzioni per sistemi aperti
Il 2022 ha visto una manciata di aziende di intelligenza artificiale dominare il palcoscenico, in particolare OpenAI e AI di stabilità. Ma le cose potrebbero finire per tornare all'open source nel 2023, poiché la capacità di costruire nuovi sistemi va oltre "Laboratori di intelligenza artificiale potenti e ricchi di funzionalità", come ho detto Massimiliano Gantz.
Un approccio comunitario può portare a un maggiore controllo dei sistemi mentre vengono costruiti e implementati. Gantz prosegue dicendo che se i modelli sono aperti e se anche i set di dati sono aperti, ciò consentirà una ricerca molto più critica che ha evidenziato molti dei difetti e dei danni legati alla creazione da parte dell'intelligenza artificiale, e questo è spesso molto difficile da condotta.
Esempi di sforzi incentrati sulla comunità includono modelli linguistici di grandi dimensioni del Eleuthera AI e Grande scienza, un lavoro supportato dalla startup di intelligenza artificiale Hugging Face. Stability AI sta finanziando varie comunità come armonia e OpenBioML, incentrato sulla generazione di musica, oltre ad essere una raccolta gratuita di esperimenti biotecnologici.
Sono ancora necessari denaro ed esperienza per addestrare ed eseguire sofisticati modelli di intelligenza artificiale, ma il calcolo decentralizzato potrebbe sfidare i server che raggruppano le informazioni in modo più tradizionale man mano che gli sforzi open source diventano sempre più maturi.
BigScience ha fatto un passo avanti nel consentire lo sviluppo decentralizzato con il recente lancio del progetto open source Petals. IL petali consente alle persone di contribuire con la propria potenza di calcolo per eseguire grandi modelli di linguaggio di intelligenza artificiale che in genere richiedono una GPU o un server di qualità superiore rispetto al solito.
I moderni modelli generativi sono computazionalmente costosi da addestrare ed eseguire. Alcune stime approssimative stimano la spesa giornaliera di ChatGPT a circa $ 3 milioni. Per renderlo commercialmente fattibile e più ampiamente accessibile, sarà importante affrontare questo problema.
Chandra Bhagavatula, Senior Fellow presso l'Allen Institute for AI on Investing in the Open Way of Artificial Intelligence
Chandra Bhagavatala sottolinea, tuttavia, che i grandi laboratori continueranno ad avere vantaggi competitivi fintanto che i metodi ei dati rimarranno proprietari. In un esempio recente, OpenAI ha rilasciato il file Punto, un modello in grado di generare oggetti 3D da un prompt di testo. Tuttavia, anche se OpenAI ha reso open source il modello, non ha divulgato le fonti dei dati di addestramento Point-E né rilasciato questi dati.
Penso che gli sforzi per l'open source e gli sforzi di decentralizzazione siano utili e avvantaggino una gamma più ampia di ricercatori, professionisti e utenti. Tuttavia, nonostante siano open source, i migliori modelli sono ancora inaccessibili a un gran numero di ricercatori e professionisti a causa dei loro limiti di risorse.
Chandra segue il suo ragionamento
Primi passi verso una certa regolamentazione
Regolamenti come Legge sull'intelligenza artificiale dell'Unione europea potrebbe cambiare il modo in cui le aziende sviluppano e implementano i sistemi di intelligenza artificiale in futuro. Così sono gli sforzi più locali, come lo statuto per l'assunzione di intelligenza artificiale di New York City, che richiede che la tecnologia basata su algoritmi e intelligenza artificiale per il reclutamento, l'assunzione o la promozione venga verificata prima che venga effettivamente utilizzata.
Chandra Bhagavatala considera queste normative necessarie, soprattutto alla luce dei difetti tecnici sempre più evidenti della tecnologia dell'intelligenza artificiale creatrice, come la sua tendenza a rilasciare informazioni potenzialmente fuorvianti.

Ciò rende l'IA generativa difficile da applicare in molte aree in cui gli errori possono essere molto costosi, ad esempio l'assistenza sanitaria. Inoltre, la facilità di generare disinformazione crea sfide per quanto riguarda la disinformazione e la disinformazione. Eppure i sistemi di intelligenza artificiale stanno già prendendo decisioni cariche di implicazioni morali ed etiche.
Chandra Bhagavatula, ricercatrice senior presso l'Allen Institute for AI alla ricerca di soluzioni per la prossima generazione di intelligenza artificiale
Tuttavia, il prossimo anno porterà solo la minaccia della regolamentazione. In tal senso, possiamo aspettarci molte più discussioni sulle regole e sui processi giudiziari prima che qualcuno venga multato o accusato, e giustamente. Ma le aziende possono ancora competere per posizioni nelle categorie più vantaggiose delle prossime leggi, come le categorie a rischio del Legge sull'intelligenza artificiale.
La norma, come attualmente scritta, suddivide i sistemi di intelligenza artificiale in una delle quattro categorie di rischio, ciascuna con requisiti e livelli diversi. Sistemi nella categoria di rischio più elevato, Intelligenza Artificiale da “alto rischio” — ad esempio, algoritmi di valutazione del credito, app di chirurgia robotica e altri con dati sensibili — devono soddisfare determinati standard legali, etici e tecnici prima di poter entrare nel mercato europeo.
La categoria di rischio più bassa, l'Intelligenza Artificiale di "rischio minimo o nessun rischio” — ad esempio filtri antispam, videogiochi abilitati all'intelligenza artificiale e altri che non contengono tali dati sensibili — impone solo obblighi di trasparenza, come rendere consapevoli gli utenti che stanno interagendo con un sistema di intelligenza artificiale.
I Keyes, un dottorando presso l'Università di Washington, ha espresso preoccupazione per il fatto che le aziende cerchino il livello di rischio più basso per ridurre al minimo la propria responsabilità e visibilità nei confronti delle autorità di regolamentazione. “A parte questa preoccupazione, questo problema della regolamentazione dell'IA è davvero la cosa più positiva che vedo sul tavolo. Non ho visto molto al di fuori del Congresso", dice Os.
E per quanto riguarda l'economia?
Maximilian Gahntz sostiene che anche se un sistema di Intelligenza Artificiale funziona abbastanza bene per la maggior parte delle persone, lo è profondamente dannoso per altri, c'è ancora molto da fare prima che un'azienda lo renda effettivamente disponibile.
Non è chiaro se le aziende saranno persuase da questo argomento il prossimo anno - e chissà per gli anni a venire - principalmente perché gli investitori sembrano desiderosi di investire i propri soldi al di là di qualsiasi promettente IA generativa.
Tra le controversie sulla Stable Diffusion, Stability AI ha rilanciato $ 101 milioni in una valutazione di più di $ 1 miliardo dagli sponsor, compresi alcuni nomi noti nel campo come cappotto e Partner di Lightspeed Venture. È stato anche riferito che OpenAI è valutato a US$ 20 miliardi di euro avviando trattative avanzate per raccogliere più fondi da Microsoft — ricordando che nel 2019 il Microsoft ha investito 1 miliardo di dollari in OpenAI nel 2019.
E tu, come pensi che si comporterà l'intelligenza artificiale il prossimo anno? Diteci nei commenti!
Vedi anche:
usi dell'artista AI per parlare con il tuo bambino interiore.
Fonte: TechCrunch.
Scopri di più su Showmetech
Iscriviti per ricevere le nostre ultime novità via e-mail.