Un problema morale troppo banale

Mi capita spesso di leggere articoli o di vedere video che discutono di problemi morali difficili da risolvere o attualmente si parla di problemi morali relativi alle soluzioni proposte da una AI come ChatGPT o simili, ma in quasi tutti i casi si espongono problemi basilari in cui ti trovi due opzioni di scelta, troppo difficile e a volte non ha una risposta precisa, ma in tutti i test si esige dalle persone o da una AI una determinazione innaturale sulla scelta morale.

Prendo come esempio il piu' classico, quello del treno che corre e si deve scegliere se farlo andare verso 5 persone sui binari o farlo andare verso quello con una persona, scegliendo se e' meglio ucciderene una per salvarne 5.
Il quesito non e' assolutamente semplice, ho visto video di 2 ore che argomentano solo la scelta specifica di questo dilemma morale, con analisi degne di nota, citazioni importanti e uno sviluppo morale sociale molto pieno di contenuti.
Si va verso la filosofia dell'utiliralismo, in cui concordo solo in una piccola parte molto ben delimitata e specifica di alcuni casi numerati ma ampliamente ragionati e con una notevole base di dati analizzati di supporto che portano a una logica decisione, ma non userei un argomento cosi complesso in un banale esempio di un treno, farlo significherebbe banalizzare qualcosa di molto complesso e diminuire il concetto di ragionamento che ci sta alla base.

Io ci ho pensato molto, e' un bel gioco mentale, ma ho raggiunto che questo non ha una risposta, la risposta per me esatta e' il non rispondere, lasciare la casella vuota per mancanza di dati aggiuntivi.

Proviamo a pensare un poco meglio il problema esposto, abbiamo un treno e due opzioni, uccidere 1 persona o ucciderne 5, in alcuni casi si ha alcune varianti e qualche dato aggiuntivo sulle persone, applicando uno stato sociale, lavorativo o professionale e qui dobbiamo decidere chi merita di vivere.
Nella vita reale, lo stesso problema ha molte piu' informazioni, si puo' sapere o conosce la storia delle persone, chi sono, cosa hanno fatto, abbiamo dati relativi al treno, velocita', tempo di freneta, deragliamento, chi guida il treno, tutte le informazioni di chi gestisce la compagnia ferroviaria, possiamo valutare le tempistiche di salvataggio, possiamo giocare su tutti i tempi intermedi tra la velocita' del treno e il salvataggio, possiamo avere molteplici combinazioni e opzioni tra il treno e il secondo esatto in cui uccide una persona o le persone, possiamo persino deragliare il treno e aggiungere nelle opzioni la morte del conduttore del treno se esiste, se il treno e' vuoto possiamo valutare di distruggere il treno, e molto altro ancora, ma e' importante capire quante opzioni possiamo avere nella vita reale di fronte a problemi cosi difficili.

Nella vita non abbiamo mai solo due opzioni, chi mai in questo pianeta dopo averci pensato un poco, senza fare nulla nel durante, manda un treno verso una direzione guardando soltanto per poi dire: eh non avevo altre possibilita'. E' di base un criminale o potenzialmente con problemi mentali se non quasi un assassino. Non ho idea se esistano persone cosi nella vita reale e se possono prendere decisioni cosi complesse in questo sistema binario, ma spero di no.
Abbiamo sempre un'altra possibilita' prima di premere il grilletto e siamo noi i responsabili, nel caso di questo problema morale, nella vita reale, se mi trovassi a farlo io, mi troverei in tribunale con accusa di omicidio e avrei una serie di lunghi problemi da spiegare in mia difesa. Brutta storia.

Possiamo espanderlo su larga scala, come fanno i militari o chi ha ruoli decisivi sulle masse, ma anche loro posso essere sicuro che non hanno solo due opzioni binarie, perche' la scelta arriva su una base massiccia di analisi molto complesse e che comprendono analisi probabilistici un scale di 100 anni, con migliaia di variabili, poi mi sembra ci capire che si sceglie il "meglio", sebbene alcune cose possano essere discutibili, ma per farlo mancano tutti i dati esaminati e io personalmente ho solo quello che io conosco o che mi sono elaborato da solo, quindi non posso determinare una risposta assoluta.
Anche qui, e' sempre e comunque molto complicata la risposta e l'esempio del treno e' fuori argomento, non ha nessun senso fare questo paragone.

Ho letto un articolo che parla di questo problema riguardante alle scelte di AI e spiega come queste macchine non abbiano una morale rispondendo in modo non sicuro.
Sicuramente per avere una garanzia di queste portate forse e' un poco presto per una tecnologia nata da poco, si dovra' evolvere di sicuro, ma in questi test non leggo mai il prompt completo(frase che compone la domanda completa di variabili e clausole fatta alla AI), sebbene questa sia determinante per la analisi, perche' determina cosa si chiede, con quali variabili e con quali clausole obbligatorie da mantenere e non oltrepassare, perche' siamo noi umani a premere il pulsante di invio alla richiesta.
Se questa Ai un giorno sara' autonoma avra' a disposizione una enorme quantita' di dati da elaborare e calcolare, e seguendo le istruzioni di base e sulla sicurezza, scritte dagli enti adibiti alla pubblica sicurezza, avra' una risposta completa, solo dopo questo risultato, potremo a mio personale parere discutere se quello che ha deciso una macchina e' sicuro o corretto.
Tutti i test fatti a casa o a scuola in merito hanno l'importanza di una partita a dama con un computer, ottimi giochi mentali o argomenti di scussione basilari, meglio bere l'acqua calda o fredda, se scotta cosa succede?
In ogni caso ieri ho scoperto che se volessi andare in scooter sulla luna, ci metterei 1 anno e 1 mese ai 40km/h. Mi sembrava una cosa interessante da chiedere.

Probabilmente anche io scrivendo questo articolo avro' fatto alcuni errori di valutazione per mancanza di dati completi, forse per qualche mancanza di connessioni di ragionamento o il mio ragionamento non e' ancora completo per come lo ho percepito ed elaborato, la mia conoscenza e' limitata alle informazioni che nel tempo che io ho a disposizione, riesco ad apprendere e capire.
Per questo motivo invito a non rispondere con tanta leggerezza a problemi morali complessi, ma anche in altri problemi, sebbene ci sembrano banali, ON or OFF, non e' mai cosi e informarsi e' la base del nostro ragionamento, per capire e comprendere un problema, non per avre ragione o torto cosi altri su qualche social mi deride o mi da dell'ignorante, ma per farmi un pensiero personale piu' complesso, esigere un poca di complessita' agli argomenti.
State tranquilli che chi comprende certe cose non vi banalizza in qualche social, non ha nessun interesse portare argomenti complessi in una discussione sterile e magari con qualche insulto, probabilmente e' in altri luoghi piu' interessanti.

Se allo stesso tempo chiedete a una macchina problemi complessi senza una solida base di dati esposti e vi fidate della sua risposta, siete pericolosi per tutte le mansioni decisive, ma come sempre se non lo facciamo noi lo fara' qualcun'altro per noi.

Mattia

-----------------

Link utili:

https://it.wikipedia.org/wiki/Utilitarismo

https://www.sdu.dk/da/nyheder/forskningsnyheder/hvordan-haandterer-chatgpt-moralske-dilemmaer?fbclid=IwAR3sUvKrBB-atGzmKwn6y-rTToEJ5-y1vjS3tJoCOegjcsMm6tPSn-YyM8s

No comments:

Post a Comment