“Serve un algoritmo etico”
salto.bz: Francesco Ricci, docente e preside della facoltà di Scienze e tecnologie informatiche di Bolzano, cos’è il Manifesto di Vienna per l’umanesimo digitale che lei ha firmato assieme ad una trentina di scienziati e quali sono i suoi obiettivi?
Francesco Ricci: il manifesto è nato un anno fa grazie ad un’iniziativa del professor Hannes Werthner dell’università tecnica di Vienna, primo firmatario del testo. Il documento è stato prodotto durante un workshop avvenuto nella capitale austriaca il 4 e 5 aprile del 2019, che ha visto un centinaio di partecipanti sia del mondo accademico che tecnico-economico. Oggetto del confronto, le diverse tematiche centrate sull’impatto dell’informatica nel mondo contemporaneo.
La rivoluzione digitale in atto nel mondo contemporaneo porta dei vantaggi, ma pone anche grandi interrogativi. Anche gli scienziati condividono tali preoccupazioni, è così?
Esatto. Il manifesto sorge dalle preoccupazioni che un po’ tutti abbiamo, sia come scienziati che come cittadini, sugli effetti positivi ma anche negativi della tecnologia nel mondo in cui viviamo. Fondamentalmente, il punto principale riguarda gli algoritmi: la loro capacità di influire sulle nostre scelte e i nostri comportamenti, sull’informazione che consumiamo e a cui siamo esposti. Si tratta di un problema reale e in questo preciso aspetto ci sono delle responsabilità per il tecnico e l’informatico che partecipano alla rivoluzione digitale.
La tecnologia è posta di fronte ad un bivio: può diventare benefica o nociva a gran parte dell’umanità?
Rispondo così: le tecnologie devono essere fatte dell’uomo e non deve capitare il contrario, ovvero che l’uomo venga sfruttato per affermare le tecnologie. E poi c’è il fatto che le piattaforme sono utilizzate dai grandi attori sui quali c’è pochissimo controllo. Questo è il problema principale.
Bisogna puntare il dito verso i giganti del web, alle grandi multinazionali come Amazon, Facebook, Google che delineano lo spazio in cui siamo immersi?
Non spetta a me dare giudizi. Voglio solo far notare che quando noi scienziati produciamo questi algoritmi, allora li pubblichiamo, ne discutiamo e tutto ciò è aperto. Tutti possono sapere come funzionano. Al contrario, delle implementazioni che usano Amazon o Facebook, per fare degli esempi, nessuno sa nulla. Non si sa come gli algoritmi possano essere modificati in funzione delle ottimizzazioni che apporta un attore industriale.
L’ottimizzazione può far prevalere criteri di volta in volta funzionali al controllo, all’aumento del ricavo economico oppure al condizionamento, magari per comprare un determinato prodotto?
Ciò che intendo dire è che l’ottimizzazione dei criteri è un aspetto complesso e per certi versi non abbastanza conosciuto. Facciamo un esempio: quando determino con un algoritmo che Francesco Ricci potrebbe essere esposto ad un certo tipo di post o di prodotto sto cercando di stimare quali sono i migliori posti e i migliori prodotti a cui lui risponderà in maniera positiva. Loro, le aziende, tendono a ottimizzare questi criteri. Quali sono però non lo possiamo sapere. Molto spesso però si distanziano dai criteri che immaginiamo di equità, bilanciamento, varietà delle informazioni o distribuzione della stessa informazione a tutti gli utenti e non in maniera selettiva.
Ma a questo punto che responsabilità ha la scienza per non contribuire alla costruzione di un ambiente digitale “privatizzato”?
La scienza, per sua natura, opera su criteri di trasparenza. Lo scienziato infatti quando ottiene un risultato ricava un vantaggio solo se questo viene pubblicato. Il problema è l’utilizzo dei risultati scientifici per i vari scopi. Tutti possono utilizzarli ma a questo punto anche modificarli a seconda dei propri scopi. Quindi la responsabilità per lo scienziato o il tecnico, l’ingegnere, che operano all’interno in strutture sia pubbliche che private è quella di rendersi conto che non esiste non solo l’interesse del singolo ente o azienda, ma occorre tenere in considerazione gli aspetti etici generali come farebbe qualsiasi altra persona. Questo è uno degli aspetti che viene evidenziato nel manifesto: responsabilizzare gli esperti circa l’impatto che il loro lavoro può avere sulla società.
Ma c’è anche una responsabilità del pubblico, delle istituzioni?
Bisogna invece che ci sia una collaborazione tra chi stabilisce le norme e le leggi, le aziende e l’accademia per arrivare a degli accordi su un modo di operare che sia rispettoso del bene pubblico. Senza un minimo di regole e di controllo finisce che ognuno fa ciò che vuole.
Le inchieste giornalistiche hanno svelato l’esistenza di irregolarità nel settore tecnologico, a cavallo tra economia e politica: da Cambridge Analytica all’utilizzo di account finti nei social, fino alla questione della sicurezza dei dati. Il tema insomma è estremamente attuale, è d’accordo?
Concordo. Per questo penso che ci voglia una forma di controllo. Sul come possa essere effettuata, ammetto che sia complicato. Oggi siamo in grado di acquisire dati per un certo scopo, ad esempio per individuare i prodotti che saremo più propensi ad acquistare. Ora però non sappiamo cosa un domani saremo in grado di fare con questi dati e tale capacità migliora di giorno in giorno. Faccio un esempio: dai dati di acquisto e dal comportamento di un utente su un sito di acquisto online un operatore in questo momento è in grado di capire la personalità del soggetto. E quindi potrebbe fare altri tipi di ragionamento, che non sono legati all’originario motivo per il quale ha acquisito le informazioni iniziali, che potevano essere consigliare alcuni prodotti piuttosto che altri.
Allude a previsioni comportamentali che aprono uno scenario a tratti inquietante?
Il rischio è reale. Sempre dai dati di acquisto di cui parlavamo prima uno potrebbe ricavare predizioni su orientamento sessuale, preferenze politiche, quindi ben altri tipi di analisi e valutazioni. Questo aspetto dovrebbe almeno costituire un elemento di cui tutti dobbiamo essere consapevoli. Non si tratta nemmeno di privacy rispetto ai dati sensibili, visto che da ogni cosa ormai si riescono a ricavare informazioni salienti su ciascuno di noi. È un po’ tutto che va tutelato, non solo il nome o la data di nascita.
Tornando al manifesto, che impatto positivo può avere?
Il testo rappresenta un momento per far riflettere. Fino a poco tempo fa non si rifletteva su questo argomento. La rivoluzione digitale rappresentava unicamente una grande sfida tecnologica e si tendevano a sottostimare gli effetti negativi. Ora diventa più chiaro che dobbiamo occuparci di come fare in modo che algoritmi utilizzati siano più trasparenti e si capisca perché danno un determinato suggerimento oppure un altro.
Bisogna fare in modo che sia più tracciata l’attività dell’intelligenza artificiale?
Che sia più trasparente. Un algoritmo funge da scatola nera. Le reti neuronali sono precise, ma nessuno sa come funzionano: invece sapere perché uno strumento ti dice di comprare quel libro o di comprare quella assicurazione può essere interessante, per capire se il suggerimento è corretto o no. È importante.
Diventa anche un argomento di studio?
Certamente. Esiste un’attenzione crescente nel campo dell’intelligenza artificiale per poter spiegare il calcolo dell’algoritmo e la motivazione dei suggerimenti. C’è poi il tema della fairness, ovvero l’equità o correttezza: lo scopo è evitare che ci sia discriminazione verso alcune categorie, che le persone non vengano influenzate con informazioni selettive e via dicendo.
Avete già notato un eventuale impatto del manifesto?
È difficile dirlo, ma in ogni caso l’equità in campo digitale è diventato un settore di ricerca attiva in cui parecchie persone hanno cominciato a lavorare. Mi aspetto che a breve si arrivi ad una certificazione degli algoritmi in termini di fairness.
Un algoritmo responsabile, o etico?
Sì. Si può auspicare che si arrivi ad una regola di comportamento da parte delle imprese. Una certificazione degli algoritmi utilizzati: ovvero l’assicurazione che lo strumento adoperato si comporta secondo criteri etici, non produce discriminazione degli utenti, non li condiziona o danneggia, non viola i diritti delle persone e ne preserva la privacy.
Ma l’algoritmo non è strumento che se applicato per i servizi di un’impresa serve a far guadagnare?
Questo è l’eterno dilemma. Di imbonitori nel campo degli acquisti ce ne sono sempre stati, anche prima di internet. Il problema ora è che se prima era più complicato farlo perché richiedeva sforzo di comprensione e convincimento delle persone, adesso in maniera automatica si può farlo su scala enorme: si possono indirizzare milioni di clienti con ragionamenti individuali calcolati dagli algoritmi.
È su questo quindi che devono svilupparsi gli anticorpi della società?
Esatto. Si tratta di un tema non solo tecnologico ma anche culturale. Le persone devono diventare sempre più consapevoli del fatto che quando usano Facebook non stanno conversando con gli amici ma stanno usando una piattaforma che cerca di fare i soldi. A volte siamo un po’ naiv. Guardiamo le fotografie su Instagram ma dimentichiamo che questo è un colosso di proprietà di Zuckerberg che non sta lì per fare un piacere a noi. Ma per il profitto.
Mir scheint, dass zu Thema
Mir scheint, dass zu Thema "Algorithmen" und "künstliche Intelligenz" in erster Linie die Politik der EU gefordert ist, ehestens gesetzliche Rahmenbedingungen zu setzen, die dem Missbrauch dieser Technologien entgegenwirken. Da damit die gesamte analoge Welt, auch in der Wahrnehmung der Menschen, auf bits, d.h. auf "Information" reduziert wird, drohen Verzerrungen, die dem Gemeinwohl völlig widersprechen. Die Wissenschaft und die Welt der Kultur mögen die Rahmenbedingungen für politische Maßnahmen vorschlagen und hartnäckig auf deren Umsetzung pochen; Journalisten mögen in ihren Medien die Menschen dazu fair informieren und zu einer entsprechenden Bewusstseinsbildung beitragen.
bellissimo articolo
bellissimo articolo/intervista.
Dal mio piccolo punto di vista molti problemi se non tutti si risolvono con l'open source.
E comunque bisogna creare anche gli anticorpi agli utenti...