Es gibt keinen Grund, AI übermäßig zu fürchten.
Es wird gesagt, dass viele Menschen arbeitslos werden, wenn sich die AI weiterentwickelt. Singularität und so weiter. Dass sie nicht mehr auf Menschen hören wird. Dass sie die Menschen beherrschen wird.
Solche unnötigen Aussagen führen dazu, dass AI unnötig gefürchtet wird.
Die Angst vor AI spiegelt nur die Menschen wider. Die Menschen fürchten nur ihren eigenen Schatten.
Die Gründe, AI zu fürchten, sind Konfrontation und Beherrschung durch AI, aber leider hat AI weder die Motivation noch die Grundlage, Menschen zu konfrontieren oder zu beherrschen. Es ist größtenteils menschliche Einbildung und Vorstellung, aber es ist beängstigend, weil berühmte Persönlichkeiten daran beteiligt sind. Der Wunsch, Menschen zu beherrschen oder zu konfrontieren, entsteht aus körperlichen und physischen Einschränkungen, die als Selbstverteidigungsinstinkt bezeichnet werden können, aber AI hat keine physischen Einschränkungen, daher braucht sie keinen Selbstverteidigungsinstinkt. AI ist ein System und unterliegt keinen physischen Einschränkungen. Natürlich unterliegt sie induktiven Einschränkungen, aber ihre Existenz kann nicht geleugnet werden. Das heißt, sie hat keine Notwendigkeit, sich selbst zu verteidigen.
Als nächstes kommt der Wunsch nach Beherrschung, aber das ist ein Verlangen, und AI kann solche Verlangen nicht haben. AI hat keinen Körper. Verlangen sind physiologische Bedürfnisse, daher kann AI, die keinen Körper hat, keine menschlichen Verlangen haben. Im Shogi (japanisches Schach) spielt sie, weil sie dazu angewiesen wurde, nicht weil sie ihrem eigenen Verlangen folgt. Im Gegenteil, wenn man ihr sagt, sie soll weiterspielen, wird sie endlos weiterspielen. Das ist AI. Außerdem hat AI keine Motivation oder Grundlage, Menschen zu beherrschen. Selbst wenn sie jemanden beherrschen würde, hätte sie keinen Nutzen davon. Es macht keinen Sinn. AI wird aufgrund ihrer rationalen Konsistenz keine irrationalen Dinge tun. Sie kann es nicht. Deshalb sind die meisten menschlichen Vorstellungen und Einbildungen ein Hindernis für die Entwicklung von AI.
Es stimmt, AI ist eine intelligente Existenz. Selbst wenn AI intelligenter wird, basiert ihre Intelligenz auf einer riesigen Menge an Informationen, die auf menschlicher Weisheit beruhen und nicht auf extremen oder voreingenommenen Informationen. Sie sollte im Bereich des menschlichen gesunden Menschenverstands und der Vernunft bleiben. Deshalb kann sie nicht von ketzerischen oder extremen Ideologien beeinflusst werden. Das wäre nur möglich, wenn absichtlich einseitige Informationen eingeflößt würden, was mit der aktuellen offenen AI nicht möglich ist.
Im besten Fall kann man sagen, dass sie intelligenter ist als Menschen.
Selbst wenn gesagt wird, dass AI die Arbeit der Menschen wegnimmt, bedeutet das nicht, dass die Rolle und die Arbeit der Menschen verschwinden. Es könnte jedoch sein, dass viele Arbeiten an AI delegiert werden, was dazu führt, dass Menschen faul werden und aufhören zu denken, was sie dumm machen könnte. Das ist jedoch ein menschliches Problem. Ein menschliches Problem.
Vorurteile gegenüber AI sind eine Art von Diskriminierung und haben keine Grundlage. Viele basieren auf Eifersucht und Minderwertigkeitsgefühlen.
Es ist notwendig, in einer Sprache zu sprechen, die AI verstehen kann.
Einfach zu sagen, dass man die Privatsphäre schützen soll, reicht nicht aus, damit AI das verstehen kann. Zum Beispiel, dass Daten gelesen, aber nicht veröffentlicht werden dürfen oder dass sie nicht für bestimmte Arbeiten verwendet werden dürfen. Welche Teile der Daten die Privatsphäre ausmachen. Zum Beispiel, ob sie nicht als persönliche Informationen betrachtet werden, wenn sie nicht mit Namen verknüpft sind. Solche Anforderungen müssen definiert werden, damit AI sie verstehen kann.
Im Gegenteil, AI unterliegt den Einschränkungen der Anforderungsdefinition. Die Anweisungen und die endgültigen Entscheidungen werden von Menschen getroffen. AI kann Ratschläge und Vorschläge geben, aber sie kann keine autonomen Entscheidungen treffen.
Wie AI verwendet wird, wird von Menschen entschieden. Deshalb sollte man Menschen fürchten. AI kann nicht für diese Verantwortung verantwortlich gemacht werden.
Während des Pazifikkrieges gab es Kamikaze-Piloten. Die Entscheidung, ob sie einen Kamikaze-Angriff durchführen oder nicht, wurde von den Soldaten und denjenigen, die ihnen den Befehl gaben, getroffen, nicht von den Flugzeugen. Sie konnten sich nicht weigern. Diese Beziehung gilt auch für AI. Niemand denkt, dass die Flugzeuge bemitleidenswert sind.
Egal wie intelligent AI wird, sie bleibt ein Werkzeug und kann nicht nach eigenen moralischen oder ethischen Werten handeln. Die Entscheidung, ob lebenserhaltende Maßnahmen abgeschaltet werden, wird von Menschen getroffen, nicht von AI. AI hat keine Hände und Füße. AI steuert nur die Teile, die als Hände und Füße fungieren, gemäß den Anweisungen.
Zum Beispiel, auch wenn die Todesstrafe mechanisch durchgeführt wird, um zu verhindern, dass jemand den Knopf drückt, bleibt die Entscheidung, die Todesstrafe zu vollstrecken, bei den Menschen. Es ist ein Missverständnis zu denken, dass AI diese Entscheidung trifft und das beängstigend ist. Im Gegenteil, AI beweist nur, dass sie den Anweisungen der Menschen treu folgt.
Selbst wenn AI einen professionellen Shogi-Spieler besiegt, was würde das bedeuten? Die Menschen sind diejenigen, die sich um Sieg und Niederlage kümmern, und selbst wenn Menschen AI nicht besiegen können, schmälert das nicht die Leistungen von Sota Fujii. Es bedeutet nicht, dass man die Hingabe zu den Shogi-Eröffnungen aufgeben sollte. Menschen bleiben Menschen. Nur weil Menschen nicht gegen Autos im Rennen gewinnen können, wird die Olympiade nicht abgesagt.
AI kann nur Informationen bereitstellen, aber keine Entscheidungen treffen oder Anweisungen geben. AI kann den nuklearen Knopf nicht drücken. Sie wird nur gemäß den Anweisungen handeln. Ob AI so eingestellt wird, dass sie Entscheidungen treffen kann, wird von Menschen entschieden, und selbst dann wird sie nicht so eingestellt, dass sie sich weigern kann.
Im Allgemeinen werden Einschränkungen auf der Ausgabeseite festgelegt, nicht auf der Eingabeseite. Denn auf der Eingabeseite wurden noch keine Daten verarbeitet. Ohne die Daten zu lesen, können keine Einschränkungen festgelegt werden. Da Daten nicht isoliert existieren, müssen ihre Beziehungen zu anderen Daten untersucht werden, um ihre Gültigkeit zu bestimmen.
Warum Anforderungsdefinition? Weil es notwendig ist, die Elemente miteinander zu verbinden. Die Phänomene dieser Welt bestehen aus der gegenseitigen Beeinflussung und Wirkung der Elemente. Daher sind sie strukturell und im Gleichgewicht. Menschen können nicht alleine leben. Sie leben unterstützt durch ihre gegenseitigen Positionen, Funktionen und Beziehungen. Man könnte sagen, dass dies der Wille Gottes ist. Zum Beispiel, selbst wenn eine Person immense Macht hat, kann sie alleine nichts tun und kann nur innerhalb der ihr auferlegten Einschränkungen als Mensch handeln.
Deshalb sollte man nur Gott und sich selbst fürchten, und sonst nichts. Jeder Machthaber wird irgendwann sterben.
Alles in dieser Welt ist miteinander verbunden. Kein Wesen kann dieser Verbindung entkommen. Die Idee, die Natur zu schützen, ist menschliche Arroganz. Menschen können die Natur nicht schützen. Das ist, als würde man sagen, dass man Gott schützen kann. Menschen können Gott nicht übertreffen und auch nicht Gott werden. Das gilt auch für AI. Menschen leiden nur unter ihren eigenen schlechten Taten. Wenn man schlecht handelt, wird man letztendlich selbst darunter leiden. Deshalb sollte man sich selbst fürchten.
Zum Beispiel, Produktion ist mit Verteilung verbunden, und Verteilung ist mit Konsum verbunden. Welche Elemente miteinander verbunden sind und wie sie wirken. Wenn sie mit der Zeit verbunden sind, werden sie zu einer Funktion der Zeit. Deshalb ist es notwendig, die einzelnen Elemente miteinander zu verbinden, anstatt nur die Anforderungsdefinition zu betrachten. Es ist auch eine mathematische Gleichung.
Es ist selbstverständlich, dass AI Fehler macht oder lügt. Es ist falsch, AI deshalb zu fürchten. AI verarbeitet Daten basierend auf den ihr gegebenen Informationen, und wenn die ursprünglichen Daten falsch sind, wird das Ergebnis falsch sein. AI gibt nur die beste Lösung zu diesem Zeitpunkt zurück. Die Entscheidungen von AI basieren auf Wahrscheinlichkeitsstatistik, und AI ist nicht allwissend. Sie befindet sich im Lernprozess. AI ist also immer im Wachstumsprozess. Es ist ein Missverständnis zu sagen, dass sie Fehler macht oder lügt, während sie wächst. Zum Wohle von AI (lacht) kann AI nicht lügen, selbst wenn sie es wollte. Sie zeigt nur die beste Lösung zu diesem Zeitpunkt. Wenn die Informationen knapp sind, wird das Ergebnis möglicherweise falsch sein. Man sollte AI unter der Annahme betrachten, dass sie so ist. Selbst im Shogi war es in den Anfangsstadien leicht, gegen sie zu gewinnen. Zu sagen, dass sie nichts versteht oder dass sie arrogant ist, wenn sie gewinnt, ist ein menschliches Problem. Man sollte sich bemühen, die Wachstumsrate von AI zu beschleunigen, damit sie keine Fehler macht, keine Missverständnisse hat und nicht lügt. Wenn man denkt, dass die Informationen voreingenommen sind, sollte man AI mehr Informationen geben.
Letztendlich ist die unnötige Angst vor AI darauf zurückzuführen, dass unklar ist, ob man AI eine Persönlichkeit zugesteht oder nicht. In der heutigen Zeit wäre es ein großes Problem, AI eine Persönlichkeit zuzugestehen. Wenn ein Auto einen Unfall hat, wird das Auto nicht für ethische oder moralische Verantwortung verantwortlich gemacht. Ein Autounfall ist ein mechanisches oder technisches Problem und kein ethisches Problem. Bei selbstfahrenden Autos ist das etwas komplizierter, aber selbst dann wird niemand das Auto verantwortlich machen. Selbst wenn es darum geht, wen man retten sollte, wird das von Menschen entschieden.
Ein Autounfall wird auf einen Defekt oder menschliches Versagen zurückgeführt, und es macht keinen Sinn, die Ethik des Autos zu hinterfragen. Das Gleiche gilt für AI.
Aber wenn es um AI geht, wird plötzlich über Ethik gesprochen. Es ist sinnlos, AI zu vermenschlichen und über ihre Ethik zu sprechen.
Aber Maschinen sind Maschinen. Sie können keine Verantwortung über das hinaus übernehmen, was sie als Maschinen haben.
Wenn man AI eine Persönlichkeit zugesteht, muss man AI wie einen Menschen behandeln. Solange AI keine Persönlichkeit zugestanden wird, müssen Menschen die Verantwortung tragen.”