WARNING:
JavaScript is turned OFF. None of the links on this concept map will
work until it is reactivated.
If you need help turning JavaScript On, click here.
Questa Cmap, creata con IHMC CmapTools, contiene informazioni relative a: ETICA ed IA Floridi, ETICA della IA Appunti e riflessioni su "Etica dell’intelligenza artificiale, sviluppi, opportunità, sfide" di Luciano Floridi del 2022 sostiene una definizione della IA come: "un sistema che agisce in maniera efficace senza essere intelligente”, la consapevolezza che la progressiva espansione e riuscita all’intelligenza artificiale dipenderà da come noi disegneremo ("design") il mondo in funzione dell’intelligenza artificiale stessa. intanto analizza sull' “intelligenza artificiale per il bene sociale” (Cap. 9) e usa un acronimo inglese che deriva dall’incontro del 2019 a Ginevra "AI for good global Summit”, definito AI4SG., secondo Floridi in queste sette iniziative particolarmente rappresentative di questo tipo di intelligenza artificiale che sono state proposte dal 2011 al 2018. (Vedi elenco pagina 228) esemplificate qua o anche nella buona pratica per i pazienti affetti da Alzaimer (punto 9.4.7) Con la messa in evidenzadella necessità per chi scrive il codice della a I4SG stia attento alla semantizzazione del software stesso che deve essere proprio pensato per lo scopo che si propone. L’esempio è quello dell’uso del software per aiutare il pazienti affetti da Alzheimer nel ricordare quando si devono prendere le medicine necessarie, aspetto che pone spesso in contrasto gli operatori sanitari con i pazienti che il software potrebbe sviluppare ma per quello che si è visto lasciando il più possibile gli aspetti epatici all’umano integrando e spostando l’avversione del paziente potremmo dire sul software rispetto all’operatore. Aspetto che si può solo ottenere se si lavora implementando il software piano piano con gli operatori del settore di sviluppo riferisco qua una frase di Floridi “la IA affettiva può rivelare un’emozione, un agente artificiale può affermare con precisione che un essere umano appare triste, ma non può mutare il significato della tristezza“. (Pagina 254) (nb: Segnalo la tabella riassuntiva sulle buone pratiche a pp. 255-256), sulle cattive pratiche con l’uso improprio dell’intelligenza artificiale per il male sociale. Questo viene indicato da Floridi con un acronimo "CIA", ovvero i crimini con l’intelligenza artificiale, che hanno come scoglio l’individuazione della responsabilità Per concludere l’importanza del capitolo nn. 8 e 9 consiste nell’aver messo bene in evidenza come l’implementazione graduale on l’esperienza dal vivo e con altri soggetti ia necessaria a un buon design di un’intelligenza artificiale per il sociale. uesto confrontarsi con l’esperienza viene indicato da Floridi on il termine che sembra ripreso dall’epistemologia di Popper … della necessaria “falsificabilità” delle azioni del sistema automatizzato. Floridi usa una metafora per indicare il futuro che ci aspetta rispetto all’intelligenza artificiale . il futuro è una stanza buia dove dobbiamo solo accendere la luce poi ci saranno ostacoli qualcosa da spostare elementi da discutere ma è nelle nostre mani perché l’intelligenza artificiale non è realmente un’intelligenza ma è un modo di agire potremmo dire un agente che è nelle mani dell’uomo a cui spetta la responsabilità . Floridi comincia proprio dal ragionamento etico che deve contribuire ed avere la consapevolezza del "design" che si vuol dare al cambiamento potente che è già in atto e che sta arrivando., una definizione della IA come: "un sistema che agisce in maniera efficace senza essere intelligente” raforzata da questa definizione che Floridi ripota ( a pg. 44) e che definisce definizione "controfattuale" sull’intelligenza artificiale (ossia , nell’uso che ne fa Floridi, definita solo in base al risultato che si ottiene) del 1955 di McCarthy, Minsky, Rochester, Shannon: “per il presente scopo il problema dell’intelligenza artificiale è quello di far sì che una macchina agisca con modalità che sarebbero definite intelligenti se un essere umano si comportasse allo stesso modo.”, Nel capitolo 10, dove Floridi esamina le due posizioni sulla IA: - una che declama un futuro dove si concretizza la “singolarità“, che sarebbe la realizzazione di quella che viene definita intelligenza artificiale "cognitiva" (detta anche "forte" e "generale") - l’altra quella che lui definisce "teismo dell’intelligenza artificiale" e che è la posizione opposta anch’essa radicale per cui non ci sarà nessun pericolo nello sviluppo di quell’insieme di applicazioni ed agenti smart, autonomi e sociali e strumenti predittivi collegati all’intelligenza artificiale. criticate tutte due da Floridi che sostiene invece che sia necessario indirizzare lo sviluppo della IA per costruire l’ambiente favorevole alla nascita di una buona IA Questo aspetto dell’azione umana è chiaramente la realizzazione della responsabilità che citava all’inizio. Sempre inteso che l’intelligenza artificiale è una nuova forza potente dell’agire umano per poter realizzare uno sviluppo che porta al progresso dell’umanità bisogna tener conto di questi quattro aspetti, intelligenza artificiale "cognitiva" che corrisponderebbe a quel sogno generatore di paure dell’intelligenza artificiale "forte" come era definita in precedenza anche da Floridi… questa intelligenza artificiale cognitiva è ciò che trova un riscontro potente a livello di informazione e l’interesse del pubblico ma è lontano dall’avverarsi e dall’avere delle conseguenze effettivamente possibili per quanto spaventose. Nb: si può pensare al liceo nella "curvatura della Ia" ad un possibile percorso interdisciplinare ed interclasse tra poesia narrativa, silent book, cinematografia e serie Tv sulla IA Forte/ ingegneristica/ generale e le paure dell'uomo per questa IA, Il lobbismo etico digitale ovvero il malcostume di sfruttare l’etica digitale per ritardare, rivedere, sostituire o evitare un’idonea e necessaria regolazione giuridica o la sua applicazione relativa al design, lo sviluppo e l’implementazione di processi, prodotti, servizi o altre soluzioni digitali. ne consegue secondo Floridi che l’autoregolazione fatta da enti privati ed aziende non può sostituire la "legge" ... anche se può essere utile. NB: contro il lobbismo etico Digitale la strategia è duplice: 1) deve essere contrastato da una buona normativa e dalla sua applicazione efficace 2) il lobbismo etico digitale deve essere reso manifesto ogni volta che si verifichi, la consapevolezza che la progressiva espansione e riuscita all’intelligenza artificiale dipenderà da come noi disegneremo ("design") il mondo in funzione dell’intelligenza artificiale stessa. indicato come “design”: ovvero lo sviluppo e l’implementazione di sistemi di AI in modo da prevenire, limitare o risolvere i problemi che incidono negativamente sulla vita umana e sul benessere del mondo naturale e/o consentire sviluppi preferibili dal punto di vista sociale e/o sostenibili dal punto di vista ambientale., nel cap. 12 analizza le possibilità di riuscire nella "beneficienza" per l'AI sviluppa qua il valore di riferimento della “beneficenza“ a sostegno del pianeta rendendosi conto dell’impatto che l’intelligenza artificiale può avere sul cambiamento climatico e che il tempismo è fondamentale per costruire il sistema dove possa agire l’intelligenza artificiale per diventare così una grande forza positiva per una società e sostenibile. Elenca velocemente il valore dell’intelligenza artificiale nella scienza e sofferma poi -1) sul grande contributo che potrebbe e portare alla comprensione e alla gestione del cambiamento climatico grazie all’elaborazione di enormi volumi di dati anche per prevedere sviluppi futuri 2) la seconda opportunità pragmatica che cita Floridi, ossia che l’intelligenza artificiale può aiutare a fornire soluzioni più ecologiche ed efficaci come il miglioramento e l’ottimizzazione della generazione dell’uso di energia contribuendo in modo coattivo la lotta contro il riscaldamento globale , fermo restando l'aspetto analizzato già in precedenza di avere la consapevolezza della quantità di uso energia ed inquinamento che produce l’intelligenza artificiale stessa soprattutto nell’addestramento di ChatGPT e simili, Azzurr eccetera (p. 309). Cita come nella passato esecutivo dell'Unione Europea sempre con Ursula Won der Layen l’Unione Europea ha abbracciato le “transizioni gemelle”: digitale ed ecologica., il rapporto tra Etica e Diritto per la IA, sostenendo che "dobbiamo passare dal seguire al condurre” (P. 126) Nel capitolo 6 divide i ruoili dell’etica soft rispetto a quella hard e la governance dell’intelligenza artificiale. Floridi sostiene che l’etica deve avere un ruolo per la formulazione del diritto e anche un ruolo successivo per, eventualmente, modificare o cancellare norme che sono state prodotte. riflettendo anche sul ruolo della "cascata normativa", ovvero come agendo prima sui rischi e i fini che si vogliono ottenere: (pg. 141) l’etica che influenza il diritto che influenza le imprese che influenzano i clienti., infine la conclusione nel cap. 14 viene sintetizzata con uno dei titoletti interni dell'opera “dal divorzio tra agire e intelligenza al matrimonio tra il verde e il blu”. Intendendo con il verde le azioni che riguardano il clima e con il blu le azioni che riguardano il digitale., per questo (tra pp. 288 -295 ) 20 raccomandazioni che benché nascono chiaramente e in un contesto “occidentale“ non sono pensati esclusivamente per questo "mondo" ma sono aperti per essere condivisi il più possibile. si possono mettere in evidenza a questo riguardo alcune "raccomandazioni": - la necessità di come valutare gli errori commessi o i danni procurati da sistemi di IA da parte delle istituzioni esistenti come tribunali civili nazionali. Aspetto essenziale per ridurre conflitti e negligenza. Nella nota collegata Floridi riporta la formula giuridica dell’antica Roma sempre utile per determinare questa spinosa questione della responsabilità: “cuius commoda riuscita et incomoda” … ovvero potremmo sintetizzare che la responsabilità spetta a chi trae i vantaggio da una situazione. Principio utile per impostare il livello di astrazione di partenza di questo ambito giuridico. - Altro punto che possiamo indicare è quello a pg. 295, il numero 20, che in senso generale indica la necessità di “sostenere la creazione di piani di studio e attività di sensibilizzazione pubblica sull’impatto sociale, giuridico ed etico della IA. Ciò includere al primo elenco: “curricula per le scuole, favorendo l’inclusione dell’informatica tra le discipline di base o da insegnare;”…, a noi ad un collegamento interdisciplinare con la letteratura spostando la riflessione sulla RESPONSABILITA ' come se si potesse raggiungere l'intelligenza cognitiva/forte/generale: Nel paragrafo 8.4.2 a pagina 207 viene affrontata la “responsabilità” … e ci appare interessante un parallelo con le tre leggi della robotica di Asimov… sembra indicare che i creatori dei software o dei BOT per social media, cioè gli sviluppatori, sono da considerare colpevoli se vengono meno a quel principio “può, ma non farà del male”. che riuscirebbe, se lasciato inserito nel codice, a spostare la responsabilità da l’ agente automatizzato (AA) all’operatore che la usa. Il paragone possibile è quindi tra questa indicazioni di opportunità per evitare la responsabilità dello sviluppatore che è simile a una delle leggi di Asimov sulla robotica (soprattutto la prima legge cardine, detta anche della “sicurezza”: “un robot non può arrecare danno a un essere umano n é può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”). intelligenza artificiale "cognitiva" che corrisponderebbe a quel sogno generatore di paure dell’intelligenza artificiale "forte" come era definita in precedenza anche da Floridi… questa intelligenza artificiale cognitiva è ciò che trova un riscontro potente a livello di informazione e l’interesse del pubblico ma è lontano dall’avverarsi e dall’avere delle conseguenze effettivamente possibili per quanto spaventose., un cambio di terminologia dell’intelligenza artificiale ossia da debole e forte "ingegneristica" e "cognitiva" (nb: Frontoni invece le definisce "generale" e "ristretta") asserendo intelligenza artificiale "cognitiva" che corrisponderebbe a quel sogno generatore di paure dell’intelligenza artificiale "forte" come era definita in precedenza anche da Floridi… questa intelligenza artificiale cognitiva è ciò che trova un riscontro potente a livello di informazione e l’interesse del pubblico ma è lontano dall’avverarsi e dall’avere delle conseguenze effettivamente possibili per quanto spaventose., opportunità senza precedenti in un momento in cui i problemi sono più complesso interconnessi. Chiaramente le metriche per valutarli non possono essere la redditività e la produttività commerciale ma dovrebbero essere valutate come nelle attività senza scopo di lucro... Floridi così analizza così i fattori essenziali che supportano assicurano il "design" e l’implementazione di questo tipo di uso intelligenza artificiale con successo: che sono FATTORI ESSENZIALI: 1. Falsificabilità e implementazione incrementali; 2. due garanzie contro la manipolazione dei predittori 3. Intervento contestualizzato in ragione del destinatario 4. Spiegazione contestualizzato in ragione del destinatario e finalità trasparenti 5. Tutela della privacy e consenso dell’interessato 6. Equità concreta 7. Semantizzazione adatta all’umano., per queste "ragioni principali di preoccupazione" : - l’emergenza, -responsabilità, -monitoraggio, -psicologia... che porta a riflettere sul fatto che sembra emergere un problema notevole per quanto riguarda la “responsabilità che un “AA”… che può essere responsabile causalmente di un atto criminale (ovvero la CAUSA), ma soltanto un agente umano può essere moralmente responsabile (p.185). Ne conseguono dubbi su come procedere nel diritto: si può definire la responsabilità penale senza requisito di colpa (assegnala alla “persona giuridica” o distribuirla tra le varie “mani” dalla programmazione all’implementazione dell’AA., l’attenzione alla formulazione legislativa di norme che riescano a distinguere tra chi ha implementato o codificato BOT o software che possono permettere di delinquere, creazione che può prevedere diverse fasi e diversi agenti umani che hanno scritto anche in tempi differenti eventuali codici (“mens rea”), e l’uso che porta invece a realizzare l’atto criminale vero e proprio (“actus reus”). Nb: Si veda la mappa a pg.182 con le aree criminali e motivi di preoccupazione che riguardano queste aree, che individua queste aree crimiali -commercio, mercati finanziari e insolvenza, -droghe nocive o pericolose, -reati contro la persona, - reati sessuali, -furto e frode contraffazione e sostituzione di persona., la consapevolezza che la progressiva espansione e riuscita all’intelligenza artificiale dipenderà da come noi disegneremo ("design") il mondo in funzione dell’intelligenza artificiale stessa. intanto analizza I cinque problemi principali relativi all’etica dell’intelligenza artificiale (anche detti “rischi”): Shopping etico, Blue washing etico, lobbismo etico, dumping etico, elusione dell’etica, il rapporto tra Etica e Diritto per la IA, sostenendo che "dobbiamo passare dal seguire al condurre” (P. 126) Nel capitolo 6 divide i ruoili dell’etica soft rispetto a quella hard e la governance dell’intelligenza artificiale. Floridi sostiene che l’etica deve avere un ruolo per la formulazione del diritto e anche un ruolo successivo per, eventualmente, modificare o cancellare norme che sono state prodotte. riflettendo sull' “etica hard” che è l’insieme delle norme emanate da un’istituzione, e sull' “etica soft" quell’aspetto che può essere precedente, diciamo sottinteso, o operare nel cambiamento successivo alle norme .