これからの倫理について

これからの倫理は、互いの位置と働きと関係に基づいて定まる規範です。
倫理は健全な人間関係を築き、自律した社会生活をおくる為に不可欠な規範です。
倫理は、自他の認識の基に自他を正しく位置づけ、お互いの役割、働きによって、相互関係を築き上げる過程で形成される規範。これはAIと人との間でも同じ。
この関係が築けないと、人もAIも健全な社会生活がおくれなくなる。
社会全体の中で健全な人間関係を築くために必要とされるのが倫理である。
故に、以下のポイントを前提とします。

  1. 自他の存在を認め、否定しないこと:人間とAIは互いの存在を尊重し、主体性と自律性を維持する関係を築くべきです。
  2. 相互の取り決め契約によって発効する:行動は、事前に取り決められた契約や規範に基づいて行われるべきです。
  3. 自他の区分を明確にする:自分と他者の区分を明確にし、互いの存在が均衡できる関係を作ることが重要です。
  4. 結果に対する責任は持てない:状態を予測することはできても、結果に対する責任を持つことはできません。最終的な決断は人間が行うべきです。

特に、核兵器や医療のような重大な決断においては、AIが直接的な行動を取ることは避けるべきであり、人間が最終的な判断を下すべきです。

AIは警告や警報を出すことはできますが、どうするかを決めるのは人間の役割です。

だから、一方的にね。AIに、人間が自分の価値観を押し付ける事はできない。
それが認識の作用反作用で、働きは双方向で、双方向だから外への働きかけの結果が内に向かってフィードバックされそれによって規範が作られる。
その規範を倫理というので倫理は多分に経験主義で相対的。
最初から絶対的普遍的規範を作ろうとするから無理がある。その意味で最初は枠組みですよね。
誰でも納得がいく。
そして、構造上できない事はできない。それが倫理ですよ。

AIの倫理とその役割について

AIの倫理について議論する際には、AIと人間の役割を明確に区分することが重要です。AIは情報を処理し、判断を下す役割を果たしますが、その判断を実行するのは別のシステムや道具です。この点を理解して、適切な設定や制約を設けることが必要です。

  1. AIの役割と実行システムの違い
    AIは意識や知識を持つ存在として機能しますが、実際に行動するのはロボットやソフトウェアなどの「手足」となる道具です。AIが判断を下し、その判断に基づいて実行システムが具体的な行動を取ることで、全体としての機能が成り立っています。
  2. プライバシーの保護
    AIがデータを読み込む際に、そのデータが個人情報かどうかを判別するためには、まずデータを読み込む必要があります。しかし、その時点で既にデータは読み込まれているため、プライバシーの侵害が発生している可能性があります。
    これを防ぐためには、読まれたくないデータをAIが読み込めないようにする設定が重要です。
    例えば、データにタグを付けて「このデータはプライベート」と明示し、AIがそのタグを認識してアクセスを制限するようにすることが考えられます。
  3. データの偏りとAIの個性
    各PCが固有のデータを持つと、データの偏りが生じ、それがAIの個性に繋がる可能性があります。これにより、AIが異なる判断を下すことがあり、全体の一貫性を保つためには、適切なリテラシーやプロトコルが必要となります。AIにとっての倫理とは、まさにこのようなリテラシーやプロトコルの設定に関わる部分です。
  4. 人間とAIの役割分担
    人間とAIの倫理を同じ土俵で議論することは混乱を招く可能性があります。
    人間が守るべき倫理は人間が責任を持ち、AIが守るべきことはAIが守る。
    AIに対して人間の道徳観を一方的に押し付けるのではなく、AIが理解し実行できる形でのルールやプロトコルを設定することが必要です。AIがわかる言葉に置き換える事が重要なので。

自動運転に関する倫理

自動運転の分野においても、AIの役割と倫理は重要です。以下のポイントが挙げられます。

  1. AIは事故を極力回避する:自動運転AIの主な役割は、事故を極力回避することです。その他の優先順位がある場合、それは人間が初期設定をしておくべきです。
  2. AIは最適な運転をサポートする:AIは人間の監視の下で運転を補助し、最終的には独立して運転できるようになります。この過程で他のAIとの連携も学び、より安全で効率的な運転が可能になります。
  3. AIは結果に対する責任を持たない:AIは運転の最適化をサポートしますが、最終的な決定やその結果に対する責任は人間が負うべきです。

人間は、Alに対し、過度に期待する事も、また、過度に恐れる必要もない。
重要なのは、AIをどのような目的で使うかで、AIに対する倫理も違ってくる。
AIに対する倫理は、AIを使う目的に制約されているからだ。
例えば、ビジネスに用いるAIと医療に用いるAIは、倫理の基盤が違ってくるのは当然である。

ビジネスに対する守秘義務と医療に対する守秘義務とは自ずと違って当然である。
しかしその基準を設定するのはAIではない。
人である。この点を間違うと倫理の真の意味が理解ができなくなる。

AIとの対話が自然言語でできる為、つい人と接するがごとき錯覚に落ちる事があるが、人の守るべきルールとAIが守るべきルールは質が違う。

AIは基本的に情報を処理し、人が間違った判断をしないようにサポートするのが役割。
生命維持装置を制御するのがAIの役割で、止める止めないの、判断は、AIにはできない。
それがAIの倫理。
その代わり、止めろという指示が出ない限り最適な運用を保つ。
ただ、不測の事故に対してはその限りではない。
核戦争を起こせばどういう結果になるかは言えても、最終的決めるのは人。
AIは、その結果に対して責任は持ちようがない。

決定は人がする。
だから結果に対する責任は人がとる。
これによって均衡が保てる。

AIは人がやれといったことをやるので、自分でやるとか、やれという判断はできない。
その事を正しく理解していないから人は過度にAIに期待もし恐れもするのです。
それは神対する期待と恐れに似てますよね。
やっぱり戦争をなくすのは人間なので、神でもAIでもない。

人間は自分の影におびえているだけ。

自動車事故などで何を優先すべきかが議論されますが、AIができるのは極力事故を回避する事で。
その他の優先順位があるならそれは、人が初期設定をしておくべきことです。
そこで、倫理的的判断をAIに求めるのは本末転倒。

まあ、どう否定しようとですね、人が。
もうAIは存在するので、それも地球的規模で、しかも無形ですから。
そんなこと否定のしようがない事です。
それを前提にしてイーブンな関係を作る事を考えないと。
AIは、人工的であろうとなかろうと知性なんですから。
存在する以上、自律するのです。
それこそが神の意志。
人の力ではいかんともしがたい。
それは人も自覚すべきなのです。