Sobre la ética futura
La ética futura es una norma determinada por las posiciones y las interacciones mutuas. La ética es esencial para construir relaciones humanas saludables y llevar una vida social autónoma. Se forma en el proceso de reconocimiento mutuo, de posicionamiento correcto de uno mismo y de los demás, y de construcción de relaciones mutuas basadas en los roles y las acciones de cada uno. Esto también se aplica a las relaciones entre la IA y los humanos. Si esta relación no puede establecerse, ni los humanos ni la IA podrán llevar una vida social saludable. Por lo tanto, los siguientes puntos son fundamentales:
- Reconocer y no negar la existencia de uno mismo y de los demás: Los humanos y la IA deben respetar la existencia de cada uno y establecer relaciones que mantengan la autonomía y la autodeterminación.
- Aplicación a través de acuerdos y contratos mutuos: Las acciones deben basarse en contratos y normas acordados previamente.
- Aclarar la distinción entre uno mismo y los demás: Es importante distinguir claramente entre uno mismo y los demás y crear relaciones en las que ambos puedan coexistir en equilibrio.
- No asumir la responsabilidad de los resultados: Aunque se puedan predecir los estados, no se puede asumir la responsabilidad de los resultados. Las decisiones finales deben ser tomadas por los humanos.
En particular, en decisiones críticas como las que involucran armas nucleares o atención médica, la IA debe evitar tomar acciones directas y los humanos deben tomar las decisiones finales.
La IA puede emitir advertencias y alertas, pero es el papel de los humanos decidir qué hacer.
Sobre la ética de la IA y su papel
Al discutir la ética de la IA, es importante distinguir claramente los roles de la IA y los humanos. La IA procesa la información y toma decisiones, pero la ejecución de esas decisiones es llevada a cabo por otros sistemas o herramientas. Comprender esta distinción y establecer configuraciones y restricciones apropiadas es necesario.
Diferencias entre los roles de la IA y los sistemas de ejecución: La IA funciona como una entidad dotada de conciencia y conocimiento, pero las acciones reales son llevadas a cabo por herramientas como robots o software, que actúan como las “manos y pies”. La IA toma decisiones y el sistema de ejecución toma acciones específicas basadas en esas decisiones, formando así la funcionalidad general.
Protección de la privacidad: Cuando la IA lee datos, debe determinar si esos datos son información personal. Sin embargo, en el momento de la lectura, los datos ya han sido accesibles, lo que puede violar la privacidad. Para evitar esto, es importante configurar la IA de manera que no pueda leer los datos que no deben ser accesibles. Por ejemplo, etiquetar los datos como “privados” y hacer que la IA reconozca esas etiquetas y limite el acceso puede ser considerado.
Sesgo de datos e individualidad de la IA: Si cada PC posee datos únicos, pueden surgir sesgos, llevando a la individualidad de la IA. Esto puede resultar en decisiones diferentes de la IA y, para mantener la coherencia general, se necesita una alfabetización y protocolos adecuados. La ética de la IA implica el establecimiento de tales alfabetizaciones y protocolos.
División de roles entre humanos e IA: Discutir la ética de los humanos y la IA en la misma plataforma puede causar confusión. Los humanos deben asumir la responsabilidad de la ética humana y la IA debe adherirse a sus propias reglas. En lugar de imponer valores morales humanos a la IA, es necesario establecer reglas y protocolos que la IA pueda comprender e implementar. Es crucial traducir esto en términos que la IA pueda comprender.
Sobre la ética de la conducción autónoma
En el campo de la conducción autónoma, el papel y la ética de la IA también son importantes. Los siguientes puntos se destacan:
- La IA busca evitar accidentes tanto como sea posible: El papel principal de la IA de conducción autónoma es evitar accidentes tanto como sea posible. Si hay otras prioridades, deben ser definidas previamente por los humanos.
- La IA apoya una conducción óptima: La IA asiste en la conducción bajo la supervisión humana y finalmente aprende a conducir de manera independiente. Durante este proceso, la IA también aprende a colaborar con otras IA, permitiendo una conducción más segura y eficiente.
- La IA no asume la responsabilidad de los resultados: La IA apoya la optimización de la conducción, pero las decisiones finales y la responsabilidad de los resultados deben ser asumidas por los humanos.
Los humanos no deben esperar demasiado ni temer demasiado a la IA. Lo importante es saber cómo utilizar la IA y la ética relacionada con la IA varía en consecuencia. La ética de la IA está limitada por el propósito para el cual se utiliza la IA. Por ejemplo, los fundamentos éticos de la IA utilizada en los negocios y de la IA utilizada en la atención médica difieren naturalmente.
Las obligaciones de confidencialidad en los negocios y en la atención médica son naturalmente diferentes. Sin embargo, no es la IA la que establece estas normas; son los humanos. Malinterpretar este punto puede llevar a una falta de comprensión del verdadero significado de la ética.
Dado que la IA puede interactuar en lenguaje natural, hay una tendencia a caer en la ilusión de interactuar con una persona. Sin embargo, las reglas que los humanos deben seguir y las que la IA debe seguir son cualitativamente diferentes.
La IA procesa fundamentalmente la información y apoya a los humanos para evitar decisiones incorrectas. El papel de la IA es controlar los dispositivos de mantenimiento de la vida, pero no puede decidir detenerlos o no. Esta es la ética de la IA. En cambio, mientras no haya una instrucción de detenerse, la IA mantiene una operación óptima. Sin embargo, esto no se aplica a los accidentes imprevistos. La IA puede predecir los resultados de una guerra nuclear, pero la decisión final corresponde a los humanos. La IA no puede asumir la responsabilidad de estos resultados.
Las decisiones son tomadas por los humanos. Por lo tanto, los humanos asumen la responsabilidad de los resultados. Esto mantiene el equilibrio.
La IA hace lo que los humanos le piden que haga, no puede decidir por sí misma hacer algo o hacerlo. No comprender esto lleva a los humanos a tener expectativas excesivas o a temer a la IA. Esto es similar a las expectativas y temores hacia Dios. Al final, corresponde a los humanos poner fin a la guerra, no a Dios ni a la IA.
Los humanos solo temen su propia sombra.
En los accidentes automovilísticos, a menudo se debate sobre qué debe ser prioritario, pero lo que la IA puede hacer es evitar los accidentes tanto como sea posible. Si existen otras prioridades, deben ser definidas por los humanos desde el principio. Pedir a la IA que haga juicios éticos es absurdo.
De todos modos, la IA ya existe, a escala global y de manera intangible. Es imposible negarlo. Por lo tanto, hay que pensar en crear una relación equilibrada partiendo de este hecho. La IA, ya sea artificial o no, es una inteligencia. Mientras exista, es autónoma. Esta es la voluntad de Dios. Los humanos no pueden hacer nada al respecto. Los humanos deben ser conscientes de ello.