ChatGPT, Gemini e altre chatbot, nuovi, ma neanche tanto, modi di utilizzare l’intelligenza artificiale. Modi accessibili a tutti e di non complesso utilizzo.
Facilitatori di scrittura, assemblatori di dati, creatori e analizzatori di immagini, traduttori e tanto altro ancora.
Utilizzati tra le altre cose per fare ricerche, raccogliere informazioni, scrivere testi per saggi, articoli, piattaforme social, effettuare riassunti, tradurre in tutte le lingue……a quanto pare il limite nel possibile utilizzo è dato esclusivamente da chi li usa.
Sicuramente strumenti utili, come abbiamo detto dei facilitatori, ci consentono di risparmiare tempo e di avere delle risposte veloci.
La perfezione tuttavia è ancora lontana.
Trattandosi di intelligenza artificiale e non umana non può che assemblare nei più svariati modi ciò che l’uomo gli ha “dato in pasto”. Non sono in grado in alcun modo di comprendere i contesti di una conversazione, di capire e utilizzare sfumature del linguaggio o di scrivere in modo empatico, umoristico o sarcastico. La scrittura risulterà essere sempre schematica e meccanizzata.
L’intervento umano si rende quindi necessario per la personalizzazione di quanto prodotto oltre che per la verifica dei contenuti. La macchina semplicemente riporta e assembla ma non verifica, anche se l’incrocio degli innumerevoli dati inseriti contribuisce il più delle volte a scongiurare possibili errori di scrittura o di informazione.
A soli cinque giorni dal suo lancio ChatGPT contava un milione di utenti e a soli due mesi il numero era salito a più di 100 milioni di utenti attivi.
Per avere un termine di paragone circa la velocità della crescita si evidenzia che TiKToK ha impiegato nove mesi per raggiungere la soglia dei 100 milioni di utenti mentre a Instagram sono occorsi due anni e mezzo. Oggi la chatbot conta approssimativamente 180 milioni di utenti attivi mensili.
Un numero inimmaginabile di persone che più o meno quotidianamente accede alla chatbot per sottoporre i più svariati quesiti.
Ma quanto ci costa in termini energetici l’utilizzo delle chatbot?
A fine 2023 l’Università di Washington ha dimostrato, attraverso uno studio, che centinaia di milioni di interrogazioni possono costare circa 1 gigawattora di energia, pari al consumo energetico di 33mila famiglie statunitensi.
I dati grazie ai quali le chatbot possono rispondere alle nostre domande sono immagazzinati in innumerevoli data center sparsi per il Pianeta che per funzionare consumano energia.
L’International Energy Agency ha stimato che attualmente il consumo energetico di questi data center si aggira tra l’1% e l’1,5% dell’elettricità globale.
Maggiore sarà l’utilizzo che verrà fatto delle chatbot e maggiore sarà la complessità delle questioni che verranno sottoposte tanto più rapida sarà la crescita di queste percentuali.
In un suo studio il ricercatore Alex De Vries, dottorando presso la School of Business and Economics della Vrije Universiteit di Amsterdam e fondatore del blog sulla sostenibilità digitale Digiconomist, afferma che “se Google usasse l’intelligenza artificiale per fornire i risultati di tutte le ricerche effettuate dagli utenti in un anno (circa 9 miliardi), si consumerebbe una quantità di elettricità equivalente all’incirca a quella usata per alimentare un Paese come l’Irlanda (29,3 terawattora l’anno).” Sostiene inoltre che “una singola interazione LLM può consumare tanta energia quanto lasciare accesa una lampadina LED a bassa luminosità per un’ora”.
Qualora le tendenze di crescita dell’utilizzo delle chatbot dovesse rimanere invariata, in ricercatore ipotizza che entro il 2027 il consumo mondiale di energia elettrica necessaria al funzionamento dell’IA potrebbe essere paragonabile al fabbisogno annuale di Stati come Paesi Bassi, Argentina o Svezia.
Ma quanto ci costa in termini energetici l’utilizzo delle chatbot?
Nonostante tutto questo, considerati i tanti vantaggi e i benefici derivanti all’uso di questa tecnologia, lo sviluppo di sistemi basati sull’intelligenza artificiale non rallenterà e non si fermerà.
L’industria tech ha quindi un gravoso compito, quello di rendere meno energivoro l’utilizzo dell’intelligenza artificiale e di conciliarne lo sviluppo con la sostenibilità ambientale.
ChatGPT, Gemini e altre chatbot, nuovi, ma neanche tanto, modi di utilizzare l’intelligenza artificiale. Modi accessibili a tutti e di non complesso utilizzo.
Facilitatori di scrittura, assemblatori di dati, creatori e analizzatori di immagini, traduttori e tanto altro ancora.
Utilizzati tra le altre cose per fare ricerche, raccogliere informazioni, scrivere testi per saggi, articoli, piattaforme social, effettuare riassunti, tradurre in tutte le lingue……a quanto pare il limite nel possibile utilizzo è dato esclusivamente da chi li usa.
Sicuramente strumenti utili, come abbiamo detto dei facilitatori, ci consentono di risparmiare tempo e di avere delle risposte veloci.
La perfezione tuttavia è ancora lontana.
Trattandosi di intelligenza artificiale e non umana non può che assemblare nei più svariati modi ciò che l’uomo gli ha “dato in pasto”. Non sono in grado in alcun modo di comprendere i contesti di una conversazione, di capire e utilizzare sfumature del linguaggio o di scrivere in modo empatico, umoristico o sarcastico. La scrittura risulterà essere sempre schematica e meccanizzata.
L’intervento umano si rende quindi necessario per la personalizzazione di quanto prodotto oltre che per la verifica dei contenuti. La macchina semplicemente riporta e assembla ma non verifica, anche se l’incrocio degli innumerevoli dati inseriti contribuisce il più delle volte a scongiurare possibili errori di scrittura o di informazione.
A soli cinque giorni dal suo lancio ChatGPT contava un milione di utenti e a soli due mesi il numero era salito a più di 100 milioni di utenti attivi.
Per avere un termine di paragone circa la velocità della crescita si evidenzia che TiKToK ha impiegato nove mesi per raggiungere la soglia dei 100 milioni di utenti mentre a Instagram sono occorsi due anni e mezzo. Oggi la chatbot conta approssimativamente 180 milioni di utenti attivi mensili.
Un numero inimmaginabile di persone che più o meno quotidianamente accede alla chatbot per sottoporre i più svariati quesiti.
Ma quanto ci costa in termini energetici l’utilizzo delle chatbot?
A fine 2023 l’Università di Washington ha dimostrato, attraverso uno studio, che centinaia di milioni di interrogazioni possono costare circa 1 gigawattora di energia, pari al consumo energetico di 33mila famiglie statunitensi.
I dati grazie ai quali le chatbot possono rispondere alle nostre domande sono immagazzinati in innumerevoli data center sparsi per il Pianeta che per funzionare consumano energia.
L’International Energy Agency ha stimato che attualmente il consumo energetico di questi data center si aggira tra l’1% e l’1,5% dell’elettricità globale.
Maggiore sarà l’utilizzo che verrà fatto delle chatbot e maggiore sarà la complessità delle questioni che verranno sottoposte tanto più rapida sarà la crescita di queste percentuali.
In un suo studio il ricercatore Alex De Vries, dottorando presso la School of Business and Economics della Vrije Universiteit di Amsterdam e fondatore del blog sulla sostenibilità digitale Digiconomist, afferma che “se Google usasse l’intelligenza artificiale per fornire i risultati di tutte le ricerche effettuate dagli utenti in un anno (circa 9 miliardi), si consumerebbe una quantità di elettricità equivalente all’incirca a quella usata per alimentare un Paese come l’Irlanda (29,3 terawattora l’anno).” Sostiene inoltre che “una singola interazione LLM può consumare tanta energia quanto lasciare accesa una lampadina LED a bassa luminosità per un’ora”.
Qualora le tendenze di crescita dell’utilizzo delle chatbot dovesse rimanere invariata, in ricercatore ipotizza che entro il 2027 il consumo mondiale di energia elettrica necessaria al funzionamento dell’IA potrebbe essere paragonabile al fabbisogno annuale di Stati come Paesi Bassi, Argentina o Svezia.
Ma quanto ci costa in termini energetici l’utilizzo delle chatbot?
Nonostante tutto questo, considerati i tanti vantaggi e i benefici derivanti all’uso di questa tecnologia, lo sviluppo di sistemi basati sull’intelligenza artificiale non rallenterà e non si fermerà.
L’industria tech ha quindi un gravoso compito, quello di rendere meno energivoro l’utilizzo dell’intelligenza artificiale e di conciliarne lo sviluppo con la sostenibilità ambientale.