L’AI che usi crea sofferenza o ti aiuta? Tra favole per bambini e strategie militari, una riflessione sull’uso dello stesso strumento

104
AI, lo stesso strumento per favole e guerre
AI, lo stesso strumento per favole e guerre

Una mamma sta chiedendo alla sua AI preferita: “Mi scrivi una favola per bambini?”. La fiaba le piace e la userà questa sera per far sorridere il suo bambino. La stessa AI, nel frattempo,  viene usata da un governo per pianificare una strategia militare che invece potrebbe far piangere più di un fanciullo. Dovresti smettere di usarla o boicottarla? Questa è la domanda che in tanti nel mondo si fanno e che risuona più forte dove la guerra, anzi le guerre si combattono o dove, nelle basi sparse nel mondo, tra cui quelle di Italia, si preparano e si guidano.

Il fatto

Anthropic non “usa l’AI a scopo militare senza limiti”: ha posto red line esplicite contro sorveglianza di massa domestica e armi completamente autonome, ed è proprio per aver difeso questi limiti che è stata punita e bandita.

OpenAI ha invece accettato un accordo con il Pentagono che consente l’uso della sua tecnologia per qualunque uso “lecito”, negoziando solo il divieto di sorveglianza di massa interna e l’obbligo di responsabilità umana nell’uso della forza; ciò non esclude comunque supporto ad applicazioni militari molto controverse, anche se non sono “killer robot totalmente autonomi.

La reazione tra gli utenti contrari all’uso militare dell’AI si è fatta sentire subito. Secondo quanto riportato da TechCrunch e altri media, il 28 febbraio 2026 le disinstallazioni di chatgpt negli USA sono aumentate di circa il 295% rispetto al giorno precedente mentre sono aumentate le installazioni di Claude.

Come si sostiene una compagnia che si occupa di intelligenza artificiale

Addestrare e mantenere i modelli di intelligenza artificiale costa moltissimo: tecnologia per la potenza di calcolo, infrastrutture, energia e personale. Quindi servono flussi di cassa molto grandi e possibilmente stabili.

Il mercato dei contratti governativi AI, dominato dal settore della difesa, vale già miliardi di dollari e cresce ogni anno, quindi è effettivamente una delle poche fonti di denaro “alla scala giusta” per questi modelli.

In questo quadro ci siamo anche noi che usiamo questi strumenti. La maggioranza degli utenti attivi (considerando solo ChatGpt, 900 milioni) usa versioni non a pagamento (https://techcrunch.com/2026/02/27/chatgpt-reaches-900m-weekly-active-users/). E da un certo punto di vista gli utenti gratuiti creano un deficit che l’azienda deve coprire altrove.

Sapendo questo, la domanda non è solo cosa fanno le aziende con i soldi della difesa. È anche: cosa finanziamo, indirettamente, quando usiamo questi strumenti gratuitamente?

Il dilemma etico che nessuna disinstallazione risolve

Se Anthropic non usa l’AI a scopo militare ‘senza limiti’ significa che la sua AI è comunque usata a scopo militare, ad esempio per attacchi letali come sembrano indicare i recenti rapporti sull’attacco in Iran (https://www.theguardian.com/technology/2026/mar/01/claude-anthropic-iran-strikes-us-military).

OpenAi ha fatto solo un diverso tipo di accordo, tra l’altro, sostenendo la posizione del suo concorrente ma aggiungendo sia una maggiore libertà di manovra sia confini offuscati dall’espressione “qualunque uso lecito”. Qualunque? Cosa significa lecito in questo contesto e chi decide se l’applicazione è lecita in una determinata circostanza?
Ci dovrebbe essere un motivo per favorire l’una o l’altra da un punto di vista etico?

Solitamente quando si parla di guerra una delle prime immagini che ci vengono in mente sono persone sofferenti, cadaveri, città devastate. Ma è possibile che usando l’AI a scopi militari i conflitti possano essere gestiti in modo diverso, mitigando i danni collaterali, riducendo le sofferenze e il numero delle vittime? È una domanda che nemmeno il CICR — che monitora il diritto umanitario internazionale da decenni — riesce ancora a risolvere: l’AI nei conflitti pone interrogativi aperti tanto sui rischi quanto sulle possibili applicazioni umanitarie. (https://cri.it/2025/09/10/tecnologia-e-azione-umanitaria-opportunita-e-rischi-dellia/)

Nel frattempo, nella vita reale

L’altro giorno la mamma, che lavora anche come medico, aveva chiesto ‘Se ti descrivo un quadro clinico generale, puoi suggerirmi alcune possibili diagnosi differenziali da considerare?’ Così ha potuto aiutare un paziente in una situazione difficile.
Più tardi aveva chiesto ancora: ’Puoi riassumere i punti chiave di questo articolo scientifico in modo che possa valutarne rapidamente la rilevanza clinica?’ È stata contenta che l’AI l’abbia aiutata nello studio facendole avere più tempo da dedicare alla sua famiglia.
È tornata a casa prima. Il suo piccolo le è corso incontro con un bel sorriso e lei l’ha preso in braccio.

La mamma quella sera ha letto la favola al suo bambino. Domani userà di nuovo l’AI. Probabilmente lo farai anche tu.

Nota: l’autore usa l’AI nel quotidiano e non ha affiliazioni commerciali con nessuna azienda che si occupi di intelligenza artificiale