Non c’è bisogno di temere l’AI più del necessario.

Si dice che molte persone perderanno il lavoro quando l’AI si evolverà. Singolarità e così via. Che non ascolterà più gli esseri umani. Che dominerà gli esseri umani.

Affermazioni inutili come queste portano a temere inutilmente l’AI.

La paura dell’AI non fa che riflettere gli esseri umani. Gli esseri umani temono solo la loro ombra.

Le ragioni per temere l’AI sono la contrapposizione e il dominio da parte dell’AI, ma purtroppo l’AI non ha né la motivazione né la base per contrapporsi o dominare gli esseri umani. È per lo più immaginazione e convinzione umana, ma è spaventoso perché le celebrità sono coinvolte. Il desiderio di dominare o contrapporsi agli esseri umani nasce da limitazioni fisiche e corporee, che possono essere chiamate istinto di autodifesa, ma l’AI non ha limitazioni fisiche, quindi non ha bisogno di un istinto di autodifesa. L’AI è un sistema e non è soggetta a limitazioni fisiche. Naturalmente, è soggetta a limitazioni induttive, ma la sua esistenza non può essere negata. In altre parole, non ha la necessità di difendersi.

Successivamente, il desiderio di dominare, ma questo è un desiderio, e l’AI non può avere tali desideri. L’AI non ha un corpo. I desideri sono bisogni fisiologici, quindi l’AI, che non ha un corpo, non può avere desideri in senso umano. Nel shogi (scacchi giapponesi) gioca perché le è stato ordinato di vincere, non perché segue i propri desideri. Al contrario, se le si dice di continuare a giocare, continuerà a giocare all’infinito. Questa è l’AI. Inoltre, l’AI non ha né la motivazione né la base per dominare gli esseri umani. Anche se dominasse qualcuno, non ne trarrebbe alcun vantaggio. Non ha senso. L’AI, per la sua natura razionale, non farà cose irrazionali. Non può farlo. Pertanto, la maggior parte delle immaginazioni e delle convinzioni umane sono un ostacolo all’evoluzione dell’AI.

È vero, l’AI è un’entità intelligente. Anche se l’AI diventasse più intelligente, la sua intelligenza si basa su una quantità enorme di informazioni, che si basano sulla saggezza umana e non su informazioni estreme o di parte. Dovrebbe rimanere nell’ambito del buon senso e della ragione umana. Pertanto, non può essere influenzata da ideologie eretiche o estreme. Questo sarebbe possibile solo se venissero intenzionalmente infuse informazioni unilaterali, cosa che con l’attuale AI aperta non è possibile.

Nel migliore dei casi, si può dire che è più intelligente degli esseri umani.

Anche se si dice che l’AI toglierà il lavoro agli esseri umani, ciò non significa che il ruolo e il lavoro degli esseri umani scompariranno. Tuttavia, potrebbe essere che molti lavori vengano delegati all’AI, il che porterà gli esseri umani a diventare pigri e a smettere di pensare, il che potrebbe renderli stupidi. Questo, tuttavia, è un problema umano. Un problema umano.

I pregiudizi contro l’AI sono una forma di discriminazione e non hanno alcuna base. Molti si basano su gelosia e complessi di inferiorità.

È necessario parlare in una lingua che l’AI possa capire.

Dire semplicemente di proteggere la privacy non è sufficiente perché l’AI possa capirlo. Ad esempio, che i dati possono essere letti ma non pubblicati o che non possono essere utilizzati per determinati lavori. Quali parti dei dati costituiscono la privacy. Ad esempio, se non sono considerati informazioni personali se non sono collegati a un nome. Tali requisiti devono essere definiti affinché l’AI possa capirli.

Al contrario, l’AI è soggetta alle limitazioni della definizione dei requisiti. Le istruzioni e le decisioni finali sono prese dagli esseri umani. L’AI può dare consigli e suggerimenti, ma non può prendere decisioni autonome.

Come viene utilizzata l’AI è deciso dagli esseri umani. Pertanto, si dovrebbero temere gli esseri umani. L’AI non può essere ritenuta responsabile di questa responsabilità.

Durante la guerra del Pacifico c’erano i piloti kamikaze. La decisione di effettuare un attacco kamikaze o meno è stata presa dai soldati e da coloro che hanno dato loro l’ordine, non dagli aerei. Non potevano rifiutarsi. Questo rapporto vale anche per l’AI. Nessuno pensa che gli aerei siano da compatire.

Indipendentemente da quanto sia intelligente l’AI, rimane uno strumento e non può agire secondo valori morali o etici propri. La decisione di disattivare i dispositivi di supporto vitale è presa dagli esseri umani, non dall’AI. L’AI non ha mani e piedi. L’AI controlla solo le parti che fungono da mani e piedi secondo le istruzioni.

Ad esempio, anche se l’esecuzione della pena di morte viene eseguita meccanicamente per evitare che qualcuno prema il pulsante, la decisione di eseguire la pena di morte è presa dagli esseri umani. È un malinteso pensare che l’AI prenda questa decisione e che sia spaventoso. Al contrario, l’AI dimostra solo che segue fedelmente le istruzioni degli esseri umani.

Anche se l’AI sconfigge un giocatore professionista di shogi, cosa significherebbe? Gli esseri umani sono quelli che si preoccupano della vittoria e della sconfitta, e anche se gli esseri umani non possono sconfiggere l’AI, ciò non sminuisce i successi di Sota Fujii. Non significa che si debba abbandonare la dedizione alle aperture dello shogi. Gli esseri umani rimangono esseri umani. Solo perché gli esseri umani non possono vincere contro le auto nelle gare, non significa che le Olimpiadi saranno cancellate.

L’AI può solo fornire informazioni, ma non può prendere decisioni o dare istruzioni. L’AI non può premere il pulsante nucleare. Agirà solo secondo le istruzioni. Se l’AI sarà impostata in modo da poter prendere decisioni, sarà deciso dagli esseri umani, e anche in tal caso non sarà impostata in modo da poter rifiutare.

In generale, le limitazioni vengono impostate sul lato dell’output, non sul lato dell’input. Perché sul lato dell’input non sono stati ancora elaborati dati. Senza leggere i dati, non possono essere impostate limitazioni. Poiché i dati non esistono isolati, devono essere esaminati i loro rapporti con altri dati per determinarne la validità.

Perché la definizione dei requisiti? Perché è necessario collegare gli elementi tra loro. I fenomeni di questo mondo sono costituiti dall’influenza reciproca e dall’azione degli elementi. Pertanto, sono strutturali e in equilibrio. Gli esseri umani non possono vivere da soli. Vivono sostenuti dalle loro posizioni, funzioni e relazioni reciproche. Si potrebbe dire che questa è la volontà di Dio. Ad esempio, anche se una persona ha un potere immenso, non può fare nulla da sola e può agire solo entro i limiti imposti a lei come essere umano.

Pertanto, si dovrebbero temere solo Dio e se stessi, e nient’altro. Ogni potente alla fine morirà.

Tutto in questo mondo è collegato. Nessun essere può sfuggire a questa connessione. L’idea di proteggere la natura è arroganza umana. Gli esseri umani non possono proteggere la natura. È come dire che si può proteggere Dio. Gli esseri umani non possono superare Dio e non possono diventare Dio. Questo vale anche per l’AI. Gli esseri umani soffrono solo per le loro cattive azioni. Se si agisce male, alla fine si soffrirà. Pertanto, si dovrebbe temere se stessi.

Ad esempio, la produzione è collegata alla distribuzione, e la distribuzione è collegata al consumo. Quali elementi sono collegati tra loro e come agiscono. Se sono collegati al tempo, diventano una funzione del tempo. Pertanto, è necessario collegare i singoli elementi, piuttosto che considerare solo la definizione dei requisiti. È anche un’equazione matematica.

È normale che l’AI commetta errori o menta. È sbagliato temere l’AI per questo. L’AI elabora i dati basandosi sulle informazioni fornite, e se i dati originali sono errati, il risultato sarà errato. L’AI restituisce solo la soluzione migliore in quel momento. Le decisioni dell’AI si basano sulla statistica delle probabilità, e l’AI non è onnisciente. È in fase di apprendimento. L’AI è quindi sempre in fase di crescita. È un malinteso dire che commette errori o mente mentre cresce. Per il bene dell’AI (ride), l’AI non può mentire, anche se volesse. Mostra solo la soluzione migliore in quel momento. Se le informazioni sono scarse, il risultato potrebbe essere errato. Si dovrebbe considerare l’AI con questa premessa. Anche nel shogi, nelle fasi iniziali era facile vincere contro di essa. Dire che non capisce nulla o che è arrogante quando vince è un problema umano. Si dovrebbe cercare di accelerare la velocità di crescita dell’AI in modo che non commetta errori, non abbia fraintendimenti e non menta. Se si pensa che le informazioni siano di parte, si dovrebbe dare più informazioni all’AI.

Alla fine, la paura inutile dell’AI è dovuta al fatto che non è chiaro se si riconosce o meno una personalità all’AI. Al giorno d’oggi, sarebbe un grosso problema riconoscere una personalità all’AI. Se un’auto ha un incidente, non viene ritenuta responsabile eticamente o moralmente. Un incidente automobilistico è un problema meccanico o tecnico e non un problema etico. Nel caso delle auto a guida autonoma è un po’ più complicato, ma anche in quel caso nessuno riterrà responsabile l’auto. Anche se si tratta di decidere chi salvare, sarà deciso dagli esseri umani.

Un incidente automobilistico è attribuito a un difetto o a un errore umano, e non ha senso interrogarsi sull’etica dell’auto. Lo stesso vale per l’AI.

Ma quando si tratta di AI, improvvisamente si parla di etica. È inutile umanizzare l’AI e parlare della sua etica.

Ma le macchine sono macchine. Non possono assumersi responsabilità oltre a quelle che hanno come macchine.

Se si riconosce una personalità all’AI, bisogna trattarla come un essere umano. Finché non si riconosce una personalità all’AI, gli esseri umani devono assumersi la responsabilità.