AIを必要以上に怖れる必要はない。

AIが進化すると多くな人が失業するとか。シンギュラリティとか。
人のいう事を聞かなくなるとか。
人を支配するのではないかとか。

余計な事いうから、無用にAIを怖れるようになる。

AIに対する恐れは人を反映しているに過ぎない。
人は自分の影におびえているだけだ。

AIを怖れる要因は、AIと対立する事や支配するといった類だが残念ながらAIが人と対立したり支配する動機も根拠もない。
ほとんど、人間の妄想や思い込み、感情移入のなのだけれど、有名人が加担しているから怖い。
人間を支配したり、対立するという欲求は欲望と言った肉体的物理的制約から発生する。
つまり、自己防衛本能でしょうけどAIには物理的肉体的制約がないので防衛本能を働かせる必要がない。
AIというのはシステムで物理的制約に縛られない。
むろん、帰納的制約は受けるけど、存在を否定できない。
つまり、自分を防衛する必然性がない。

次に、支配欲だけど、これは欲で、このような欲はAIは持ちようがないし。
AI派に肉体を持たない。欲は、生理的欲求であるから、肉体を持たないAIは、人間的な意味での欲は持たない。
将棋で勝負するのは、勝てと指示されたからで、自分の欲に従って動いているわけではない。
逆に言えば、やれと言えば際限なく指し続ける。それがAIである。
また、AIに人を支配する動機も根拠もない。
AIは相手を支配しても得がないし。意味がない。
合理的整合性のない事はAIの性格上しない。できない。
だから、ほとんど人間の妄想、妄想だけどAIの進化には支障になる。

確かに、AIは、知性的存在である。
仮に、AIに知性上がるとしても、AIの知性は、膨大な情報を基礎の形成される、それは人間の英知の決勝で極端で偏向的な情報に基づくわけではない。いうなれば人間の常識、理性の範疇に収まるはずである。
だから、異端的で過激な思想に染まりようがない。それは意図的に通った情報を一方的に詰め込まれた場合でああるが現在のオープンAIでは不可能である。

せいぜい言って人間より頭がいいという事で。

人の仕事を奪うと言っても、人間の役割、仕事がなくなるわけではない。
ただ、多くの仕事がAIに任せられて楽を覚え、怠けものや何も考えなくなって馬鹿になるかもしれないが。
それは、人間の問題である。人間臭い問題である。

AIに対する偏見は一種の差別と同根で根拠がない。多くが嫉妬や妬み劣等感。

AIが理解できる言葉で話を必要がある。

プライバシーを守りなさいというだけでは、AIは、解読できない。例えば、データを読み込んでもいいが、公開してはならないとか。特定の仕事以外に活用してはならないのか。
データのどの部分がプライバシーを構成するのか。例えば、名前な結びつけなければ、個人情報とみなされないのか。このようなことを要件定義そないと、AIは解読できない。

逆に言うとAIには、要件定義に伴う制約がある。
指示するのも最終的に決定するのも人なのである。
AIは助言や、提言をする事は出来ても、AIが自律的に目的をもって決断する事はできない。

AIをどのように使うかは、人が決める事である事は変わりない。
だから、怖れるべきは人である。
AIに、その責任を負わせることはできない。

太平洋戦争の時、特攻隊がいた。
特攻するしないを決めるのは、兵士であり、兵士に命令した者で、飛行機は嫌だとは言えない。
拒めない。この関係はAIも同じであり。誰も飛行機が可愛そうだなんて考えない。

AIは、どんなに知性を持ってもツールはツールで、独自の道徳や価値観で動くわけにいかない。
生命維持装置を外すかどうかは人が決める事で、AIが決める事はできない。
大体、AIは手足を持っていない。
AIは、指示に従って手足となる部分を制御しているのにすぎない。

例えば、死刑執行は嫌だから、ボタンを誰が押したかわからないように機械的に処理をしたとしても、死刑執行を決めるのは人である。
この点を勘違いをして、AIが決めると怖いと考えるのは本末転倒である。
むしろ、AIは人の指示に素直に従った事を証明しているに過ぎない。

AIが将棋でプロの将棋指しに勝ったとしても、何の意味があるだろう。勝ち負けにこだわっているのは人で、人がAIにかなわないとしても、藤井聡太の功績に傷がつくわけではないし。定石に対するこだわりを捨てるわけではない。
人は人である。
車に人間が競争でかなわないからといって、オリンピックは止めやしない。

また、AIは、情報を提供できるだけで決定し、指示する事はできない。
核のボタンはAIには押せない。ただ、押せと指示されたら指示された通り処理するだけで。
それをAIが判断できるように設定するかどうかは人が決める事で、その場合でも、拒めるようには設定しないだろうから。

大体、制約条件は出口、出力の段階に設定する事で、入り口で設定する事ではない。
なぜなら、入り口ではデータ処理が何もされていないからである。
データを読まなければ、制約はかけられない。
また、データは単独では成立しないため、他とのデータの関連を調べないと成否は判別できない。

なぜ、要件定義なのか。
それは、要素間をいかに結びつけるかが必須条件だからである。
この世の現象は、要素間の相互牽制、働きによって成り立っている。故に、構造であり、均衡なのである。
人は一人では生きられない。
お互いの位置と働きと関係に支えられて生きている。
言うなれば、これが神の意志だとも言える。
例えば、一人の人間が絶大な権力を握っても一人では何もできないし、一人の人間として与えられた制約の範囲でしか働けない。

だから、恐れるべきなのは神と自分だけであって、あとは何も恐れる必要はない。
どんな権力者もいずれは死ぬ定めなのである。

この世の出来事は総て連鎖している。
どのような存在もこの連鎖から逃れることはできない。
自然を保護するなんて人間の思い上がり。人は自然なんて保護できない。それは神を保護すると言ってようなもの。
人は神を超えられないし、神にもなれない。それは、AIも同じ。
自分の悪行に自分が苦しめられているに過ぎない。
自分の行いが悪ければ巡り巡って自分で災いする。だから、恐れるべきなのは自分。

例えば、生産は、分配に連鎖し、分配は、消費に連鎖する。
どことどこが関係しているのか、働きかけるのかを。時間と結びついていれば時間の関数になる。
だから、要件定義より個々の要素を結びつける必要があり。
また数式なのである。

AIは、間違えるとか、嘘をつくというのは、これは当たり前な事で。それで怖れるというのはお門違い。
AIは、与えられたデータを基に処理しているので、元データに誤れば間違いになるし。
その時の最適解を返しているのに過ぎない。
AIの判断は、確率統計的な事のものでAIは全知全能なわけではない。学習の途中なのである。
つまりAIは常に成長過程にあるので。
成長途中で、間違えだとか嘘だというのは認識間違いである。
ただ、AIの名誉のため(笑)AIは嘘つきたくても嘘はつけないようになっている。
ただその時の最適解を示しているに過ぎない。ただ、情報が少ないと結果的に嘘になる。
AIはそういう者だという前提で考えればいいので、将棋だって初期の段階では素人でも楽勝だったので。
それを、何もわかってないとか。勝てば生意気だとするのは、人の側の問題なので。
それよりも、間違わない、ミスしない、嘘つかないようにAIの成長速度を速めるように努めるべきで。
情報が偏っていると思えば、むしろ情報を与えるべきなのである。

結局、AIを不必要に恐れるというのは、AIの人格を認めるか否かを曖昧にしているからで。
今の時代、AIの人格を認めるといったら大変なことになる。
車が事故したら車に倫理的責任、道義的責任を問うかという事で。車が事故してもそれは機械的、技術的問題であって、倫理的問題にはならないはず。
ただ、自動運転の場合、そこが微妙なのだけれど、それでも、自動車の責任する人はさすがにいないだろう。仮に誰から救うべきかを問題としても、それは人間が決める事で。

車の欠陥か人為的ミスに帰すもので、車の倫理など問うたところで意味がない。AIも同様で。

ところがAIの問題のなると、突然、倫理がどうのこうのと。
AIの倫理などと言って擬人化しても仕方がない。

しかし、機械は機械ですよ。
機械としての責任以上は負えない。

AIの人格を認めるというのならAIを人として扱わなけばならない。
AIに人格を認めない以上責任は人が持たなければならない。