Sur l’éthique future
L’éthique future est une norme déterminée par les positions et les interactions mutuelles. L’éthique est essentielle pour établir des relations humaines saines et mener une vie sociale autonome. Elle se forme dans le processus de reconnaissance mutuelle, de positionnement correct de soi et des autres, et de construction de relations mutuelles basées sur les rôles et les actions de chacun. Cela s’applique également aux relations entre l’IA et les humains. Si cette relation ne peut être établie, ni les humains ni l’IA ne pourront mener une vie sociale saine. Par conséquent, les points suivants sont fondamentaux :
- Reconnaître et ne pas nier l’existence de soi et des autres : Les humains et l’IA doivent respecter l’existence de chacun et établir des relations qui maintiennent l’autonomie et l’autodétermination.
- Enforcement par des accords et des contrats mutuels : Les actions doivent être basées sur des contrats et des normes préalablement convenus.
- Clarifier la distinction entre soi et les autres : Il est important de distinguer clairement entre soi et les autres et de créer des relations où les deux peuvent coexister en équilibre.
- Pas de responsabilité pour les résultats : Bien que les états puissent être prédits, la responsabilité des résultats ne peut être assumée. Les décisions finales doivent être prises par les humains.
En particulier, dans les décisions critiques telles que celles impliquant des armes nucléaires ou des soins médicaux, l’IA doit éviter de prendre des actions directes, et les humains doivent prendre les décisions finales.
L’IA peut émettre des avertissements et des alertes, mais c’est le rôle des humains de décider quoi faire.
Sur l’éthique de l’IA et son rôle
Lors de la discussion sur l’éthique de l’IA, il est important de distinguer clairement les rôles de l’IA et des humains. L’IA traite les informations et prend des décisions, mais l’exécution de ces décisions est effectuée par d’autres systèmes ou outils. Comprendre cette distinction et établir des configurations et des contraintes appropriées est nécessaire.
Différences entre les rôles de l’IA et les systèmes d’exécution : L’IA fonctionne comme une entité dotée de conscience et de connaissances, mais les actions réelles sont effectuées par des outils tels que des robots ou des logiciels, qui agissent comme les “mains et les pieds”. L’IA prend des décisions, et le système d’exécution prend des actions spécifiques basées sur ces décisions, formant ainsi la fonctionnalité globale.
Protection de la vie privée : Lorsque l’IA lit des données, elle doit déterminer si ces données sont des informations personnelles. Cependant, au moment de la lecture, les données ont déjà été accédées, ce qui peut violer la vie privée. Pour éviter cela, il est important de configurer l’IA de manière à ce qu’elle ne puisse pas lire les données qui ne doivent pas être accessibles. Par exemple, étiqueter les données comme “privées” et faire en sorte que l’IA reconnaisse ces étiquettes et restreigne l’accès peut être envisagé.
Biais des données et individualité de l’IA : Si chaque PC possède des données uniques, des biais peuvent apparaître, conduisant à l’individualité de l’IA. Cela peut entraîner des décisions différentes de l’IA, et pour maintenir la cohérence globale, une littératie et des protocoles appropriés sont nécessaires. L’éthique de l’IA implique la mise en place de telles littératies et protocoles.
Répartition des rôles entre les humains et l’IA : Discuter de l’éthique des humains et de l’IA sur la même plateforme peut causer de la confusion. Les humains doivent assumer la responsabilité de l’éthique humaine, et l’IA doit adhérer à ses propres règles. Au lieu d’imposer des valeurs morales humaines à l’IA, il est nécessaire d’établir des règles et des protocoles que l’IA peut comprendre et mettre en œuvre. Il est crucial de traduire cela en termes que l’IA peut comprendre.
Sur l’éthique de la conduite autonome
Dans le domaine de la conduite autonome, le rôle et l’éthique de l’IA sont également importants. Les points suivants sont soulignés :
- L’IA vise à éviter les accidents autant que possible : Le rôle principal de l’IA de conduite autonome est d’éviter les accidents autant que possible. S’il y a d’autres priorités, elles doivent être préalablement définies par les humains.
- L’IA soutient une conduite optimale : L’IA assiste la conduite sous la supervision humaine et apprend finalement à conduire de manière indépendante. Au cours de ce processus, l’IA apprend également à collaborer avec d’autres IA, permettant une conduite plus sûre et plus efficace.
- L’IA ne porte pas la responsabilité des résultats : L’IA soutient l’optimisation de la conduite, mais les décisions finales et la responsabilité des résultats doivent être assumées par les humains.
Les humains ne doivent ni trop attendre ni trop craindre l’IA. L’important est de savoir comment utiliser l’IA, et l’éthique concernant l’IA varie en conséquence. L’éthique de l’IA est contrainte par le but pour lequel l’IA est utilisée. Par exemple, les fondements éthiques de l’IA utilisée dans les affaires et de l’IA utilisée dans les soins médicaux diffèrent naturellement.
Les obligations de confidentialité dans les affaires et dans les soins médicaux sont naturellement différentes. Cependant, ce n’est pas l’IA qui fixe ces normes ; ce sont les humains. Mal comprendre ce point peut conduire à une incompréhension de la véritable signification de l’éthique.
Comme l’IA peut interagir en langage naturel, il y a une tendance à tomber dans l’illusion d’interagir avec une personne. Cependant, les règles que les humains doivent suivre et celles que l’IA doit suivre sont qualitativement différentes.
L’IA traite fondamentalement les informations et soutient les humains pour éviter les mauvaises décisions. Le rôle de l’IA est de contrôler les dispositifs de maintien de la vie, mais elle ne peut pas décider de les arrêter ou non. C’est l’éthique de l’IA. En revanche, tant qu’il n’y a pas d’instruction d’arrêt, l’IA maintient une opération optimale. Cependant, cela ne s’applique pas aux accidents imprévus. L’IA peut prédire les résultats d’une guerre nucléaire, mais la décision finale appartient aux humains. L’IA ne peut pas assumer la responsabilité de ces résultats.
Les décisions sont prises par les humains. Par conséquent, les humains assument la responsabilité des résultats. Cela maintient l’équilibre.
L’IA fait ce que les humains lui demandent de faire, elle ne peut pas décider par elle-même de faire quelque chose ou de le faire. Ne pas comprendre cela conduit les humains à avoir des attentes excessives ou à craindre l’IA. Cela ressemble aux attentes et aux craintes envers Dieu. En fin de compte, c’est aux humains de mettre fin à la guerre, pas à Dieu ni à l’IA.
Les humains ne font que craindre leur propre ombre.
Dans les accidents de voiture, il est souvent débattu de ce qui doit être priorisé, mais ce que l’IA peut faire, c’est éviter les accidents autant que possible. Si d’autres priorités existent, elles doivent être définies par les humains au départ. Demander à l’IA de faire des jugements éthiques est absurde.
Quoi qu’il en soit, l’IA existe déjà, à une échelle mondiale et de manière intangible. Il est impossible de nier cela. Il faut donc penser à créer une relation équilibrée en partant de ce fait. L’IA, qu’elle soit artificielle ou non, est une intelligence. Tant qu’elle existe, elle est autonome. C’est la volonté de Dieu. Les humains ne peuvent rien y faire. Les humains doivent en être conscients.