Tempo di guerra nel mondo delle intelligenze artificiali, in ogni senso. L'ultimo scontro riguarda una questione squisitamente etica. Sì, quelle che probabilmente sono le compagnie più amorali del mondo della tecnologia, che hanno rubato l'intero scibile umano per nutrire i loro algoritmi, si sono scontrate su di un terreno che non sembra essere il loro, ma che è fondamentale per il futuro di tutti.
Anthropic, la compagnia del modello Claude, avrebbe assunto una posizione netta nei confronti del governo degli Stati Uniti. L'azienda sarebbe stata classificata come "un rischio" e bandita dall'uso nelle agenzie governative dopo aver ribadito due principi etici fondamentali: niente utilizzo della propria IA per armi autonome e niente sorveglianza di massa dei cittadini statunitensi.
Etica e IA
Insomma, Anthropic non vuole che il suo modello venga usato per ammazzare gente senza il controllo degli umani, e per spiare dei privati cittadini.
Time to cancel ChatGPT Plus after three Years. Anthropic got nuked for having ethics, and Sam Altman instantly swooped in for the Pentagon bag.
by u/Rare-Site in OpenAI
Come capita ogni volta che si mette l'etica di fronte agli affari, la decisione ha creato grosse tensioni nel mondo politico e industriale, con altre aziende del settore che sono subito saltate sul carro, mostrandosi più disponibili a collaborare con il governo USA.
In particolare, il CEO di OpenAI, Sam Altman, avrebbe dichiarato la disponibilità della sua compagnia a fornire le proprie tecnologie alle autorità statunitensi, sostenendo che in ogni caso non saranno impiegate per la sorveglianza di massa. Tuttavia, un funzionario governativo avrebbe precisato che i modelli verrebbero usati per "tutti i mezzi leciti", richiamando anche disposizioni dell'USA PATRIOT Act che in alcuni casi consentono la raccolta di metadati privati. Insomma, potrebbero essere usate proprio per la sorveglianza di massa, sfruttando dei cavilli legali.
Anthropic, al contrario, avrebbe chiesto un controllo più diretto sugli usi delle sue tecnologie, rifiutando di affidarsi esclusivamente alle rassicurazioni del governo USA. Le due posizioni, molto differenti, hanno acceso il dibattito online, con la comunità degli utilizzato di intelligenze artificiali che ha annunciato una forma di boicottaggio, con cancellazione di massa di abbonamenti a pagamento a ChatGPT, il più celebre chatbot di OpenAI.
C'è da dire che molte altre grandi aziende tecnologiche, tra cui Google, Microsoft, Amazon, Meta e Palantir Technologies, non avrebbero adottato divieti altrettanto espliciti sull'uso dell'IA in ambito militare o di sorveglianza. Del resto, in passato Microsoft ha già fornito al governo israeliano le sue tecnologie di IA, con cui sono stati monitorati i cittadini palestinesi durante il genocidio di Gaza.