Skip to main content

SPECIALE PESACH 5784

Scarica il Lunario 5784

Contatti

Lungotevere Raffaello Sanzio 14

00153 Roma

Tel. 0687450205

redazione@shalom.it

Le condizioni per l’utilizzo di testi, foto e illustrazioni coperti da copyright sono concordate con i detentori prima della pubblicazione. Qualora non fosse stato possibile, Shalom si dichiara disposta a riconoscerne il giusto compenso.
Abbonati

    IA, cybersecurity, privacy

    Il Rabbino Capo di Roma Riccardo Di Segni è intervenuto alla Farnesina durante l’incontro di tutti gli ambasciatori italiani sul tema dell’Intelligenza Artificiale e della Cybersecurity.

    Inaugurata solennemente da un intervento del Presidente della Repubblica Sergo Mattarella, l’iniziativa è stata seguita da questa prima sessione, dedicata appunto all’Intelligenza artificiale e alla Cybersecurity. Sono intervenuti il ministro degli Esteri Antonio Tajani, il ministro dell’Università e della Ricerca Anna Maria Bernini, il sottosegretario alla Presidenza del Consiglio Alfredo Mantovano; poi ci sono stati due interventi sulla parte etica, di cui il primo è stato appunto quello di Rav Riccardo Di Segni, che riportiamo di seguito.

     

    Devo iniziare con una confessione: per prepararmi a questo intervento ho fatto una domanda proprio all’IA. La mia domanda era: quali sono i problemi etici nell’uso dell’IA nella cybersecurity? La risposta è arrivata in due secondi. Breve ed essenziale, ve la cito per intero:

    L’uso dell’IA nella cybersecurity presenta diverse sfide etiche, come la privacy dei dati, la discriminazione algoritmica, la trasparenza e l’accountability degli algoritmi, oltre alla possibile creazione di armi cibernetiche autonome. Alcuni punti critici includono l’equilibrio tra sicurezza e privacy e l’etica nel trattamento dei dati sensibili durante le operazioni di difesa cibernetica.

    Fin qui la citazione, direi fantastica. Ma ho commesso, diciamo, due errori. Il primo di ingenuità. Per usare una metafora comune, un po’ vecchia ma efficace, è come chiedere all’oste se il suo vino sia buono. L’altro errore, più grave, è stato quello della delega. Ho delegato la funzione di controllo a chi dovrebbe essere il controllato. Ed è questo proprio uno dei rischi maggiori nell’uso dell’IA. È uno strumento talmente potente che ha facoltà decisionali;  per la nostra comodità tendiamo a sfruttare queste potenzialità, delegandolo a nome nostro e rinunciando progressivamente al controllo.
    Vorrei precisare che quando introduco queste riflessioni provengo da una cultura che ha il massimo rispetto dell’intelligenza, e della tecnologia che è il prodotto di questa intelligenza. Nell’antica cultura greca c’era il mito di Prometeo che sottrasse il fuoco agli dei per donarlo agli uomini e per questo venne punito. Un’idea opposta viene espressa nella versione ebraica del mito. Si diche che Adamo, il primo uomo, rimase al buio dopo il primo tramonto e mentre era spaventato D gli dette l’intelligenza per accendere il fuoco; questa storia la ricordiamo ritualmente ogni sabato sera in cui accendiamo un fuoco e benediciamo D che “crea la luce dal fuoco”. Il senso di tutto questo è che la capacità di usare il fuoco sia un prodotto dell’intelligenza umana, a sua volta dono divino e non un insulto al divino. All’origine dell’umanità, la gestione del fuoco fu tra le prime rivoluzioni tecnologiche, come oggi, dopo millenni, è l’IA. Il fuoco rappresenta tutte le contraddizioni delle tecnologie: è utile, essenziale, ma potenzialmente pericoloso. Riscalda, crea, forgia, ma distrugge. Quindi da usare con cautela. Da regolarne l’uso. L’ebraismo arriva, con l’istituzione del sabato a proibirne l’accensione per un giorno intero (Esodo 35:3). Perché non basta dire che bisogna controllarlo, ma dobbiamo anche educarci a farlo. La tecnologia ci serve ma dobbiamo dimostrare che possiamo farne a meno ogni tanto. Vale per il fuoco come per lo smartphone e l’IA: siamo in grado di privarcene per un giorno a settimana? Sono nostri prodotti, non sono i nostri padroni. Né è il nostro dio. Oggi esistono ancora in Iran dei piccoli nuclei di adoratori del fuoco, eredi di una religione antichissima. Non credo che in questa sala ci sia un adoratore del fuoco. Ma probabilmente c’è, con diversi livelli di consapevolezza, qualche adoratore o servitore dell’IA. C’è la necessità di essere consapevoli di questo rischio. Ne va della stessa dignità dell’uomo.
    Anche il tema della privacy rientra in questo orizzonte di rischio. Sembra un tema nuovissimo al punto che per indicarlo preferiamo usare un termine dalla lingua inglese -privacy- come se in italiano non ci fosse già una parola appropriata, come “riservatezza”. In realtà quella della “privacy” era un’esigenza sentita dall’uomo biblico, nel Levitico 19:16 due versetti prima del famoso “ama il prossimo tuo come te stesso” si proibisce di andare sparlando tra la gente, un divieto che nella applicazione legale non riguarda i casi più gravi della diffamazione o la calunnia, ma la semplice divulgazione di dati personali. Perché ogni dato personale è parte di quella della complessità che delinea l’unicità di ogni individuo e come tale va tutelata. La riflessione di oggi è in chiave giuridica di sicurezza, ma bisogna considerare che prima ancora della sicurezza c’è una forte istanza morale.
    L’IA, al centro della nostra attenzione di oggi, è uno strumento potente per la sicurezza; per fare un esempio tanto virtuoso quanto drammatico posso citare questa notizia da Israele che è comparsa di recente sul Foglio a firma di Saul Singer e Dan Senor:

    Nell’arco di 24 ore dalla mattina del 7 ottobre un team di 20 persone provenienti da diverse aziende tecnologiche ha creato un sistema utilizzando l’IA e il riconoscimento facciale per identificare le persone scomparse, molte delle quali rapite, dai video pubblicati da Hamas sui socialmedia.

    Esistono parimenti numerosi esempi negativi, di cui ha parlato l’on. Mantovano; ogni tecnologia contiene al suo interno le potenzialità della distruzione e dell’autodistruzione. La chiave etica è il giusto distacco e il controllo.
    Il controllo, appunto, il limite alla delega. Sembra ovvio dirlo e ripetere questo concetto: non tutto ciò che è possibile è anche lecito.
    Vorrei fare un ultimo esempio preso dalla liturgia ebraica. Ogni giorno recitiamo una lunga preghiera fatta di una serie di benedizioni in cui prima lodiamo D, poi gli chiediamo quello che ci serve, poi Lo ringraziamo. L’ultima delle lodi esalta la santità divina, un attributo che significa il distacco e la perfezione morale, che dobbiamo tentare di imitare. Segue, come prima richiesta, quella di darci l’intelligenza, la conoscenza, il discernimento, senza le quali non potremmo agire in questo mondo. Di nuovo, è l’idea che la nostra intelligenza sia un dono divino, come di conseguenza lo sono le nostre creazioni intelligenti. 

    Una volta un gruppo di fedeli si rivolse a un importante maestro per chiedere come mai una persona di loro conoscenza, che era un genio, non avesse qualità morali al livello della sua intelligenza. Il maestro rispose che è per questo che abbiamo due benedizioni distinte, una per l’intelligenza l’altra per la santità. L’intelligenza, che sia naturale o artificiale, non è una garanzia di santità e moralità. È su questo che dobbiamo continuamente operare e vigilare.

    CONDIVIDI SU: