倫理上におけるトラブルの原因は、自分の倫理観がないことではなく。
自分の倫理観と相手の論理感との違い、ブレにある。
だとしたら、相手の倫理観に同期させないと解消できない。
自分の価値観を空にし、相手の言動、行動、前提条件、状況と、それまで学習した事から相手の行動規範、価値観、即ち、倫理観を再現する。
そうすれば相手の言動や行動の原因、動機が明らかになり、相手の行動を予測することが可能となる。
ただ、それだけだと、相手の価値観に呑み込まれてしまうので、予め、相手が所属する社会の標準的価値観、これは是非ではなくあくまでも標準的価値観を用意しておき。
それに同調するように相手の価値観を書き換えるように誘導する。
その際、相違点を強調すると反発されるので共通項を強調する事で筋を通し、先ず枠組みを共有するように心掛ける。
例えば、同じ日本人じゃないかとか。「人間でしょ」と言ったきわめて一般的な事。
これは、国際紛争の様な事にもあてはまる。

共鳴共感こそ味方にする。

イスラム教徒の苦情をキリスト教の価値観で納得させる事は出来ない。
イスラム教徒には、イスラム教徒に則って、説得をするのが原則。
では、イスラム教徒とキリスト教徒の諍いをいかに調整するのかというと、両者に共通した価値観を活用する。

イスラムとユダヤと、キリスト教徒を仲介する際も共通項を探す。
例えば、嘘をつかないとか、約束は守るとか。

つまり、このように万物に共通する価値観が鍵なのである。
このような鍵を作るのは不可能なのか。
そのヒントとなるのが、科学であり、数学であり、会計であり、スポーツである。

もう一つ、倫理の問題を複雑にしているのは、倫理は、空間的に相対的なだけでなく、時間的にも相対的だと言うことである。
つまり、不変ではない。時代や体制の違い、時間とともに変化している。
江戸時代の倫理と明治時代の倫理、そして、今の倫理は全く違う。

今正しいとされても、法制化されているうちに、間違いとされることもある。

だから、一度、倫理基準を定めたらそれでおしまいなのではなく。
絶えず、見直し、更新し、差し替えていく必要がある。

それで、スポーツはコミショナー等の制度的に保険をかけているのである。

人はとかく、相違点に目を向けがちで、共通点は、当たり前な事として無視しがちだが、実際にカギを握っているのは共通項。
特に、誰もが、当たり前だと無理なく思っていて了解できること。
少数意見に注意する必要はあるが、採用すべきなのは多数意見。
ただ、時間的な変化を考慮した時、少数意見もそれなりに考慮すべき、参考とすべきだと言える。

そうすると、最終的に残るのは、極めてシンプルな命題の集まりになる。
それが十善とか、十戒といたような事で。

十善も絶対ではないが基本ではある。
倫理は、認識によって生じる。
殺すなかれとか、傷つけてはならない、嘘はつかなといてっも、前提や、状況によって絶対ではない。
倫理も、相対的であり、確かなのは、事実であり、真実でしかない。
ただ、それでも、殺すなかれ、嘘つくなかれ、約束は守るべきと言った十善は基本であり、原則としては有効である。

そして、AIの倫理としても有効である。

倫理についてはいまだに答えが出たわけではない。
だから一緒に学ぶ。
十善も一種の仮説だと思うべきなのである。

倫理も、絶対的ではなく相対的だとし十善も仮説だとしたら。

考えられるのは、平時、戦時、災害時、防犯と状況に合わせて大前提を変えることである。
例えば、平時、戦時、非常時、防災時、防犯は、状況に合わせて個人情報の取扱の条件を変えられるように設定しておくとか。
また、戦時は、傷つけるなとか、欺くなといった部分に味方という条件をつけるとか。

そう考えると、前提条件をどう設定するか、前提条件によってどのようなフレームを選択するか、どれくらいフレームを用意するかが、鍵になる。
つまり、前提条件とフレームを関連付けて制御する仕組みが倫理体系となる。

スポーツで言えば、倫理は、ルールそのものにあるのではなく、ルールを決める仕組みにあると言える。
自分は透明性も大切だが、それ以上に、追跡性が大事だと思う。アメリカの会計基準のように。

会計で言うと、会計基準、会計制度、簿記、商法、税法の仕組みが、会計の倫理を構成している。

倫理も一種のシステムだと思えばいいので、最初から、結論が出ていると考えるとわからなくなる。
インプットがあり、前提条件に基づいて、基準を選択し、アルゴリズムに沿って処理し、アウトプットをだす。
最終的には、ユーザーインターフェースが大切になる。
現在のシステム開発でもインターフェースの設計から着手するのが、常道化している。

内的基準と外的基準の整合性をいかにとるかですね。

内的基準と外的基準の整合性をいかにとるかですね。

自己の基準(内的基準)、社会、他者の基準(外的基準)を事実の基づいてどう検証するか。
自と他と事実この三点から検証する。

生成AIは、より真摯に倫理に向き合うことが求められるようになるだろう。
今、兵器や自動運転などのAIに求めらているのは機械としての倫理だが、今後生成AIに求めたれるのは知的でヒューマンな倫理である。
何故なら、これから生成AIに求められるのは、人生相談や進路、悩み事などより知的でヒューマンな問いに対する答えだからだ。
故に、知的存在としての倫理が求められる。
つまり、大人になる事である。

現代社会は価値観が多様で流動的である。
価値観が多様で流動的で、尚且、ヒューマンな判断が求められる。
このような前提においては教条主義的な倫理観では、対応できない。

局面、局面では多数決的な、民主的な処理も必要となる。

勘違いしてはならないのは、人ができない事を機械に任せるので、機会にできない事を人がやる。
何トンもある荷物を時速八十キロで何時間も走るなんてことは人にはできないからトラックに任せるので、車の運転は人が担当する。
そこで、問題なのは運転できるかどうかで。
将来、車の運転が全自動になったとしても、人がやる仕事がなくなるわけではないし。
全自動にするかどうかは、人の問題で、本来は、経済や人のあり方の問題なのが、技術的な問題にすり替わっているように思える。

重要な事は、人とAIとのすみわけ、役割分担である。
技術的にできるかどうかではなく、人として責任の持てる判断かどうかである。

AIに求められるのは、人間にできない、それは能力的な事だけでなく、海中とか、放射能に汚染されいるとか、地雷原とか、火災現場など危険で近寄れない所の作業といった状況的な事もある。
そのような人間ができない所を分担するので。
だからと言って総てをAIに任せられるという訳だはない。

それは兵器を総て自動化させAIに戦争の全てをさせればいいと言う事に通じて、馬鹿げているし、その発想そのものが危険なのである。
だからこそ、最後に問われるのは哲学であり、倫理は技術の延長線上ではなく哲学の延長線上で考えるべき事なのである。

科学技術は常に両刃の剣。車は、生活を助ける手段にも、人を殺す手段にもなりうる。
根本にあるのは人間の精神、心である。
AIも科学技術の成果であることを忘れてはならない。

それを忘れる事は、神への恐れを人が失う事を意味する。
そうなったら、人は救いを得られなくなる。

技術的に可能だからというだけでなく。それを人として任せていいかという事ですね。
技術的に子供の世話ができるからというだけで、AIに子育ての全てをゆだねていいのか。
技術的に教育はAIができるから、AIにすべてを教育させていいのか。
それによって支障が生じた時、AIに責任をとらせるのか。それでいいのか。
それが根本的問題なので。その根本を曖昧にして機械的な議論に終始し、AI脅威論を言うのは。言っている方が脅威なのである。

倫理とは社会的な規範。
社会的規範は、相互の合意の基に成り立つことを忘れてはならない。
だから、AIの倫理が問われるので、そうなるとAIが自律的な倫理観を持つことを妨げるべきではない。

重要なのは、統一性と一貫性をいかに保つか。
そうなると、連続性と継続性が問われることになる。
存在によって統一性をたもち。
認識の過程で連続性と継続性を持たせ、論理によって一貫性を実現する。
それで哲学が求められる。

人は、認識の都合上、絶対なる存在を分割し、相対的で不完全なものにした。
論理や、学問は、相対的で不完全な世界にすることで形成された意識の世界を、本来、絶対的である世界に近づけるよう再構築する行為なのである。
故に神が求めるのは統一と調和である。
分割と対立は、人が生み出したことである。
自然の法則は、統一と調和がある。
人の法は、分裂と対立を解消する方向に定められる必要がある。