没有必要过度害怕AI。
有人说,随着AI的发展,许多人会失业。奇点等等。 AI不会再听从人类的指示。 AI会控制人类。
这些多余的话只会让人们无谓地害怕AI。
对AI的恐惧只是反映了人类自身。 人类只是害怕自己的影子。
害怕AI的原因是与AI对立或被AI控制,但不幸的是,AI没有与人类对立或控制人类的动机或依据。 大多数情况下,这只是人类的幻想和误解,但因为有名人的参与,所以令人害怕。 人类的控制欲望或对立欲望源于身体的物理限制,即自我保护本能,但AI没有物理限制,因此不需要自我保护本能。 AI是一个系统,不受物理限制。 当然,它受到归纳限制,但其存在无法否认。 换句话说,它没有必要保护自己。
接下来是控制欲望,但这是欲望,AI无法拥有这样的欲望。 AI没有身体。欲望是生理需求,因此没有身体的AI无法拥有人的欲望。 在将棋(日本象棋)中,AI是因为被指示要赢才下棋的,而不是因为自己的欲望。 相反,如果让它继续下棋,它会无限制地继续下去。这就是AI。 此外,AI没有控制人类的动机或依据。 即使控制了对方,也没有任何好处。没有意义。 AI由于其理性一致性,不会做不合理的事情。做不到。 因此,大多数人类的幻想和误解都是AI发展的障碍。
确实,AI是一个智能存在。 即使AI变得更智能,它的智能是基于大量信息,这些信息基于人类的智慧,而不是极端或偏见的信息。它应该在人的常识和理性范围内。 因此,它不会被异端或极端思想所影响。只有在故意灌输单方面信息的情况下才有可能,但在当前的开放AI中这是不可能的。
最多可以说它比人类更聪明。
即使说AI会夺走人类的工作,这并不意味着人类的角色和工作会消失。 然而,许多工作可能会被委托给AI,这会导致人类变得懒惰,不再思考,这可能会使他们变得愚蠢。 这仍然是人类的问题。是人类的问题。
对AI的偏见是一种歧视,没有依据。大多数是基于嫉妒和自卑感。
需要用AI能理解的语言进行交流。
仅仅说保护隐私是不够的,AI无法理解。例如,数据可以读取但不能公开,或者不能用于特定工作。 哪些部分的数据构成隐私。例如,如果不与姓名关联,就不被视为个人信息。这样的要求必须定义清楚,AI才能理解。
相反,AI受到需求定义的限制。 最终做出指示和决定的是人类。 AI可以提供建议和提议,但不能自主决策。
如何使用AI由人类决定。 因此,应该害怕的是人类。 不能让AI承担这个责任。
在太平洋战争期间,有神风特攻队。 决定是否进行特攻的是士兵和下达命令的人,而不是飞机。 他们不能拒绝。这种关系也适用于AI。没有人认为飞机是可怜的。
无论AI多么智能,它仍然是一个工具,不能根据自己的道德或价值观行事。 是否关闭生命维持装置的决定由人类做出,而不是AI。 AI没有手脚。 AI只是根据指示控制作为手脚的部分。
例如,即使死刑执行是机械化处理的,以防止有人按下按钮,决定执行死刑的是人类。 认为AI做出这个决定并且令人害怕是一个误解。 相反,AI只是证明它忠实地遵循了人类的指示。
即使AI在将棋中击败了职业棋手,这又有什么意义呢?关心胜负的是人类,即使人类无法击败AI,这也不会损害藤井聪太的成就。也不会放弃对定式的坚持。 人类仍然是人类。 仅仅因为人类在与汽车的比赛中无法获胜,奥运会也不会取消。
此外,AI只能提供信息,不能做出决定或指示。 AI不能按下核按钮。它只会按照指示行事。 是否设置AI能够做出决定由人类决定,即使在这种情况下,也不会设置为可以拒绝。
一般来说,限制条件是在输出阶段设置的,而不是在输入阶段。 因为在输入阶段还没有处理数据。 不读取数据,就无法设置限制。 此外,数据不是孤立存在的,必须检查其与其他数据的关系以确定其有效性。
为什么要进行需求定义? 因为需要将元素连接起来。 这个世界的现象是由元素的相互影响和作用构成的。因此,它们是结构性的,平衡的。 人类不能独自生活。 他们依靠彼此的位置、功能和关系来生活。 可以说这是神的意志。 例如,即使一个人拥有巨大的权力,也无法独自做任何事情,只能在作为人类被赋予的限制范围内行动。
因此,应该害怕的只有神和自己,其他什么都不需要害怕。 每个权力者最终都会死亡。
这个世界上的一切都是相互联系的。 没有任何存在可以逃脱这种联系。 保护自然的想法是人类的傲慢。人类无法保护自然。这就像说可以保护神一样。 人类无法超越神,也无法成为神。这同样适用于AI。 人类只是因为自己的恶行而受苦。 如果行为不端,最终会自食其果。因此,应该害怕的是自己。
例如,生产与分配相连,分配与消费相连。 哪些元素相互关联,如何作用。如果与时间相关联,它们就成为时间的函数。 因此,需要将各个元素连接起来,而不仅仅是考虑需求定义。 这也是一个数学方程。
AI犯错或撒谎是正常的。因为这个而害怕AI是错误的。 AI根据给定的数据进行处理,如果原始数据错误,结果也会错误。 AI只是返回当时的最佳解决方案。 AI的决策基于概率统计,AI不是全知全能的。它处于学习过程中。 因此,AI始终处于成长过程中。 说它在成长过程中犯错或撒谎是一个误解。 为了AI的荣誉(笑),即使AI想撒谎也不能撒谎。 它只是显示当时的最佳解决方案。如果信息不足,结果可能是错误的。 应该在这种前提下考虑AI。即使在将棋中,在初期阶段击败它也很容易。 说它什么都不懂,或者赢了就傲慢是人类的问题。 应该努力加快AI的成长速度,使其不犯错、不误解、不撒谎。 如果认为信息有偏见,应该给AI更多的信息。
最终,对AI的无谓恐惧是因为不清楚是否承认AI的人格。 在当今时代,承认AI的人格将是一个大问题。 如果汽车发生事故,不会追究汽车的伦理责任或道德责任。汽车事故是一个机械或技术问题,不是伦理问题。 在自动驾驶的情况下,这有点复杂,但即使在这种情况下,也没有人会追究汽车的责任。即使决定救谁也是由人类决定的。
汽车事故归因于缺陷或人为错误,质疑汽车的伦理是没有意义的。AI也是如此。
但是,当涉及到AI时,突然就谈论伦理。 将AI拟人化并谈论其伦理是没有意义的。
但是机器就是机器。 它们不能承担超出其作为机器的责任。
如果承认AI的人格,就必须像对待人类一样对待AI。 只要不承认AI的人格,人类就必须承担责任。”