AIに対する議論を聞いていて釈然としないのは、知性と理性について語られることがないという事だ。
それが、AIに対する過剰な警戒心を生んでいる気がする。
例えば、AIを使った選挙妨害や犯罪。
しかし、犯罪をしているのは人であり、AIは利用されているだけで。
また、全体主義国家がAIによって人民を管理すると言ったことも、要は、人間の本性の問題で。
AIに対する過大な期待と過剰な不安に思える。
今更、そのような事を恐れても。どちらにしてもAIが出せるのは最適解で。
最終的な判断は人がする。
問題は、その人間の領域をAIが越えるかという事だけれど。
そこで、問題となるのは、知性と理性の問題で。
AIは知性を持てても理性は持てないと。
知性があっても理性は持てないと決めつけている気がする。
では、知性とは何か、理性とは何かである。
理性というのは道理に従って物事を判断する能力で、つまり、知識を整理、制御するための働きを言うので。
これは必然的に知性に付随して発生する。
そりゃあ理性がなければ、知性の暴走は防げないけど、逆に言えば、理性がなければ知性は成立しない。
無論、十分に理性が成熟しないで知性が暴走するという事はありうるけれど、それは未熟なだけで、その場合は自滅するだけ。
子供が無自覚にいたずらするようなもの。
ただ、少年犯罪と同じように考えるのは、いかがなものか。
人知を超えてAIを恐れても。
何故なら、人とを超えて知性が発達するなら、それの即応して理性も発達していると考えるのが至当。
理性抜きの知性が発達すると考えない限り。
そこで、最初の議論にもどるけど、人以外、理性はないという結論思い込みがあるのでは。
むしろ、恐れるとしたら、理性が十分に発達していない人間の方で。
私は知性が深化すればそれだけ理性も深化すると信じている。

AIに対する脅威論も何が脅威なのか理解に苦しむことがある。確かに、人に似せた動画を作成されたりするのは怖い事は怖いけど、それをさせる人間の意図のほうがずっと怖い。

悪用にAIを使うけどセキュリティにもAIを使うからね。
結局、AIは両刃の剣。使い方を間違っているだけで。

兵器は、人殺しの道具で、兵器にAIが使われたとして、それでAIは危険だとするのは。結局、兵器もそれを開発するのも、用いるのは、人間なので。
AIが人間に黙って兵器を作っても何のメリットもなく。それこそ知性も理性もなく。
むしろそのような妄想が独り歩きする事が怖い。狂っている。

知性でも理性でもなく、感情的で、文学論的な議論が先行している気がする。
技術者や科学者でなく。正直、哲学にも科学にも精通している人があまりいないんだよね。

科学者が基本的に形而上学に踏み込まないという前提に立っているのも一因なんだよね。
もっとも、科学者も哲学的な話になると得体のしれないこと言いだす。論理的でない。

理性は、自他の分別の上に養われるので。
自意識が、AIにあるかという事で。

でも自意識がなければ、知性は成り立たないので。

理性がなければ知性を制御できないとしたら、理性の発達なくして知性は、成立の仕様がない。
その段階で知性は破綻する。
要は、狂うので。発狂するのが怖いと言えば怖いけれど。
一定の基準、アルゴリズムで制御されている限りありえない。
もう一つ重要なのは自己認識、自意識の成立で、自意識が働かなければ理性は育たない。
しかし自他の分別が合うという事は裏返せば自己が存在する。
この点が他のコンピュターと違う点で。
自意識があるからこそ生成AIは、他の機械と違うので。

機械は、自他の分別ができないから、自己制御が機械的にしかできないが自意識があるAIは、自立した意識で自分を制御できる。

AIの判断は機械的と言いますが、それは、従前の構造からきているので、生成AIにそのまま適合させ、AIの判断は機械的だからダメというのは短絡的すぎる。
機械的な制御理論を無理やり当てはめてもね。
かといって、いきなり、人と同じ基準を持ってきても。
知性や理性の形成を見ないと。
自意識の有無も。

AIが人を支配すると恐れる人がいるが、AIの何が人の何を支配するというのか。
お化けをおそれるような事で。
それより、AIが健全な理性が持てるようにすることが求められるので。

自意識は人間だけにもてるとするのは、人間の思い上がりなんだ。
AIに自制を求めるのなら、AIが自意識を発達できるようにすべきなのだ。

ですから知性の発達は比例的に理性を発達させるので。
ただ、純粋に人の成長と同じに見るのはおかしい。
AIは確かに人の理性とは別の発達をするので。
人に恋をしたり、欲情するというのは考えにくい。杞憂に過ぎない。
AIは人にはなれないし、AIはAIとして尊重すべきだ。

知識とは何かという事ですね。
単純に、情報の集まりなのか。そうではないですよね。
情報をいくつかの要素に、分解、分析して。
情報から共通した事を抽出し、その項目ごとに、情報を分類し。
それを再構築する。

情報、生データの集まりは、知識とは言わない。

機械学習のアルゴリズムそのものなんですよ。
情報を格納するデータベースを知識というのか。

そうなると、データベースを制御するCPUのはたらきをするところに理性が働く。
そして、それをユーザーに伝達する、ユーザーインターファイスですね。
個々の、プロトコルが倫理的な働きをするのですかね。

この辺の構造は、インタネットの構造によく似ていて。

階層 OSI参照モデル
第7層 アプリケーション層
第6層 プレゼンテーション層
第5層 セッション層
第4層 トランスポート層
第3層 ネットワーク層
第2層 データリンク層
第1層 物理層

いずれにしてもAIの倫理は構造的に考え、どこに、どのような基準規制がかかるかを考えないと定義できない。