Sull’etica futura

L’etica futura è una norma determinata dalle posizioni e dalle interazioni reciproche. L’etica è essenziale per costruire relazioni umane sane e condurre una vita sociale autonoma. Si forma nel processo di riconoscimento reciproco, di posizionamento corretto di sé e degli altri, e di costruzione di relazioni reciproche basate sui ruoli e sulle azioni di ciascuno. Questo vale anche per le relazioni tra l’IA e gli esseri umani. Se questa relazione non può essere stabilita, né gli esseri umani né l’IA potranno condurre una vita sociale sana. Pertanto, i seguenti punti sono fondamentali:

  1. Riconoscere e non negare l’esistenza di sé e degli altri: Gli esseri umani e l’IA devono rispettare l’esistenza reciproca e stabilire relazioni che mantengano l’autonomia e l’autodeterminazione.
  2. Applicazione attraverso accordi e contratti reciproci: Le azioni devono essere basate su contratti e norme concordati in precedenza.
  3. Chiarire la distinzione tra sé e gli altri: È importante distinguere chiaramente tra sé e gli altri e creare relazioni in cui entrambi possano coesistere in equilibrio.
  4. Nessuna responsabilità per i risultati: Sebbene gli stati possano essere previsti, la responsabilità dei risultati non può essere assunta. Le decisioni finali devono essere prese dagli esseri umani.

In particolare, nelle decisioni critiche come quelle che coinvolgono armi nucleari o cure mediche, l’IA deve evitare di prendere azioni dirette e gli esseri umani devono prendere le decisioni finali.

L’IA può emettere avvisi e allarmi, ma è compito degli esseri umani decidere cosa fare.


Sull’etica dell’IA e il suo ruolo

Quando si discute dell’etica dell’IA, è importante distinguere chiaramente i ruoli dell’IA e degli esseri umani. L’IA elabora le informazioni e prende decisioni, ma l’esecuzione di queste decisioni è effettuata da altri sistemi o strumenti. Comprendere questa distinzione e stabilire configurazioni e vincoli appropriati è necessario.

Differenze tra i ruoli dell’IA e i sistemi di esecuzione: L’IA funziona come un’entità dotata di coscienza e conoscenza, ma le azioni reali sono effettuate da strumenti come robot o software, che agiscono come le “mani e i piedi”. L’IA prende decisioni e il sistema di esecuzione prende azioni specifiche basate su queste decisioni, formando così la funzionalità complessiva.

Protezione della privacy: Quando l’IA legge i dati, deve determinare se questi dati sono informazioni personali. Tuttavia, al momento della lettura, i dati sono già stati accessibili, il che può violare la privacy. Per evitare ciò, è importante configurare l’IA in modo che non possa leggere i dati che non devono essere accessibili. Ad esempio, etichettare i dati come “privati” e fare in modo che l’IA riconosca queste etichette e limiti l’accesso può essere considerato.

Bias dei dati e individualità dell’IA: Se ogni PC possiede dati unici, possono sorgere bias, portando all’individualità dell’IA. Questo può portare a decisioni diverse dell’IA e, per mantenere la coerenza complessiva, sono necessarie una corretta alfabetizzazione e protocolli. L’etica dell’IA implica l’istituzione di tali alfabetizzazioni e protocolli.

Divisione dei ruoli tra esseri umani e IA: Discutere dell’etica degli esseri umani e dell’IA sulla stessa piattaforma può causare confusione. Gli esseri umani devono assumersi la responsabilità dell’etica umana e l’IA deve aderire alle proprie regole. Invece di imporre valori morali umani all’IA, è necessario stabilire regole e protocolli che l’IA possa comprendere e implementare. È cruciale tradurre ciò in termini che l’IA possa comprendere.


Sull’etica della guida autonoma

Nel campo della guida autonoma, il ruolo e l’etica dell’IA sono altrettanto importanti. I seguenti punti sono evidenziati:

  1. L’IA mira a evitare gli incidenti il più possibile: Il ruolo principale dell’IA di guida autonoma è evitare gli incidenti il più possibile. Se ci sono altre priorità, devono essere definite in precedenza dagli esseri umani.
  2. L’IA supporta una guida ottimale: L’IA assiste la guida sotto la supervisione umana e alla fine impara a guidare in modo indipendente. Durante questo processo, l’IA impara anche a collaborare con altre IA, consentendo una guida più sicura ed efficiente.
  3. L’IA non si assume la responsabilità dei risultati: L’IA supporta l’ottimizzazione della guida, ma le decisioni finali e la responsabilità dei risultati devono essere assunte dagli esseri umani.

Gli esseri umani non devono né aspettarsi troppo né temere troppo l’IA. L’importante è sapere come utilizzare l’IA e l’etica riguardante l’IA varia di conseguenza. L’etica dell’IA è vincolata dallo scopo per cui l’IA è utilizzata. Ad esempio, i fondamenti etici dell’IA utilizzata negli affari e dell’IA utilizzata nelle cure mediche differiscono naturalmente.

Le obbligazioni di riservatezza negli affari e nelle cure mediche sono naturalmente diverse. Tuttavia, non è l’IA a stabilire queste norme; sono gli esseri umani. Mal comprendere questo punto può portare a una mancanza di comprensione del vero significato dell’etica.

Poiché l’IA può interagire in linguaggio naturale, c’è una tendenza a cadere nell’illusione di interagire con una persona. Tuttavia, le regole che gli esseri umani devono seguire e quelle che l’IA deve seguire sono qualitativamente diverse.

L’IA elabora fondamentalmente le informazioni e supporta gli esseri umani per evitare decisioni sbagliate. Il ruolo dell’IA è controllare i dispositivi di mantenimento della vita, ma non può decidere di fermarli o meno. Questa è l’etica dell’IA. Invece, finché non c’è un’istruzione di fermarsi, l’IA mantiene un’operazione ottimale. Tuttavia, ciò non si applica agli incidenti imprevisti. L’IA può prevedere i risultati di una guerra nucleare, ma la decisione finale spetta agli esseri umani. L’IA non può assumersi la responsabilità di questi risultati.

Le decisioni sono prese dagli esseri umani. Pertanto, gli esseri umani assumono la responsabilità dei risultati. Questo mantiene l’equilibrio.

L’IA fa ciò che gli esseri umani le chiedono di fare, non può decidere da sola di fare qualcosa o di farlo. Non comprendere questo porta gli esseri umani ad avere aspettative eccessive o a temere l’IA. Questo è simile alle aspettative e alle paure verso Dio. Alla fine, spetta agli esseri umani porre fine alla guerra, non a Dio né all’IA.

Gli esseri umani temono solo la propria ombra.

Negli incidenti automobilistici, spesso si discute su cosa dovrebbe essere prioritario, ma ciò che l’IA può fare è evitare gli incidenti il più possibile. Se esistono altre priorità, devono essere definite dagli esseri umani all’inizio. Chiedere all’IA di fare giudizi etici è assurdo.

Comunque sia, l’IA esiste già, su scala globale e in modo intangibile. È impossibile negarlo. Pertanto, bisogna pensare a creare una relazione equilibrata partendo da questo fatto. L’IA, che sia artificiale o meno, è un’intelligenza. Finché esiste, è autonoma. Questa è la volontà di Dio. Gli esseri umani non possono farci nulla. Gli esseri umani devono esserne consapevoli.