人工智能英文论文及其翻译
这个领域建立在这样一种说法的基础上,即人类的一个核心属性——智力——可以如此精确地描述,以至于可以用机器来模拟。[5]这就提出了关于心灵的本质和科学自大的限度的哲学问题,这些问题自古以来就被神话、小说和哲学所解决。[6]人工智能一直是令人激动的乐观主义的主题,[7]遭受了令人震惊的挫折[8],今天,它已成为技术工业的一个重要组成部分,为计算机科学中许多最困难的问题提供了解决的办法。[9]
人工智能研究是高度技术化和专业化的,深入划分为子领域,这些子领域往往无法相互沟通。[10]围绕特定机构、单个研究人员的工作、特定问题的解决方案、关于如何实现人工智能的长期意见分歧以及差异很大的工具的应用,出现了子领域。人工智能的核心问题包括推理、知识、规划、学习、交流、感知以及移动和操纵物体的能力等特征。[11]一般智能(或称“强AI”)仍然是(一些)研究的长期目标。[12]
会思考的机器和人造人出现在希腊神话中,比如克里特岛的塔洛斯,赫菲斯托斯的金色机器人和皮格马利翁的加拉太亚。[13]每个主要文明都建造了被认为具有智能的人类肖像:动画雕像在埃及和希腊受到崇拜[14],人形机器人由Yan Shi,[15]亚历山大的Hero,[16] Al-Jazari[17]和Wolfgang von Kempelen建造。人们也普遍认为,Jābir ibn Hayyān、[19] Judah Loew[20]和Paracelsus创造了人造人。到了19和20世纪,人造人已经成为小说中的常见特征,就像玛丽.雪莱的《弗兰肯斯坦》或《卡雷尔》?apek的R.U.R .(罗森公司的通用机器人)。[22]帕梅拉·麦科达克认为,所有这些都是一种古老的冲动的例子,正如她所描述的那样,“铸造神灵”。[6]这些生物及其命运的故事讨论了许多与人工智能相同的希望、恐惧和伦理问题。
模拟(或创造)智能的问题已经被分解成许多具体的子问题。这些包括研究人员将李可智能系统显示的特殊特征或能力。下面描述的特征受到了最多的关注。[11]
[编辑]演绎,推理,解题
早期的人工智能研究人员开发了模仿人类在解谜、玩棋盘游戏或进行逻辑推理时使用的逐步推理的算法。[39]到了80年代末和90年代,人工智能研究还利用概率论和经济学的概念,开发出了处理不确定或不完整信息的非常成功的方法。[40]
对于困难的问题,这些算法中的大多数可能需要巨大的计算资源——大多数经历了“组合爆炸”:当问题超过一定规模时,所需的内存或计算机时间量就变成了天文数字。寻找更有效的问题解决算法是人工智能研究的重中之重。[41]
人类使用快速、直觉的判断来解决大多数问题,而不是早期人工智能研究能够模拟的有意识的逐步推理。[42]人工智能在模仿这种“次符号”问题解决方面取得了一些进展:具身方法强调感觉运动技能对高级推理的重要性;神经网络研究试图模拟人类和动物大脑内部产生这种技能的结构。
普通智力
主要文章:强AI和AI-complete
大多数研究人员希望他们的工作最终被纳入一个具有一般智能(被称为强AI)的机器,结合上述所有技能,并在大多数或所有方面超过人类的能力。[12]一些人认为这样的项目可能需要拟人化的特征,如人工意识或人工大脑。[74]
上面的很多问题都被认为是AI完备的:要解决一个问题,你必须解决所有问题。例如,即使是像机器翻译这样直截了当、具体的任务,也要求机器跟随作者的论点(理性),知道正在谈论什么(知识),忠实地再现作者的意图(社会智能)。因此,机器翻译被认为是完全人工智能的:它可能需要像人类一样强大的人工智能来完成。[75]
[编辑]方法
没有既定的统一理论或范式来指导人工智能研究。研究人员在许多问题上意见不一。[76]有几个长期悬而未决的问题是:人工智能应该通过学习心理学或神经学来模拟自然智能吗?还是人类生物学与AI研究的不相关程度就像鸟类生物学与航空工程的不相关程度一样?[77]智能行为可以用简单、优雅的原则(如逻辑或优化)来描述吗?还是一定需要解决大量完全不相关的问题?[78]智力可以用类似于文字和思想的高级符号复制吗?还是需要“次符号”处理?[79]
[编辑]控制论和大脑模拟
主要文章:控制论和计算神经科学
对于大脑应该模拟到什么程度还没有一致的意见。在1940年代和1950年代,一些研究人员探索了神经学、信息论和控制论之间的联系。他们中的一些人制造了使用电子网络展示基本智能的机器,如W. Grey Walter的海龟和Johns Hopkins的野兽。这些研究人员中的许多人聚集在普林斯顿大学的目的论协会和英国的比率俱乐部开会。[24]到公元1960年,这种方法基本上被放弃了,尽管其中的一些元素在公元1980年又重新出现。
如何判断一个智能体是否聪明?在1950中,艾伦·图灵提出了一个测试智能体的一般程序,现在被称为图灵测试。这个程序允许几乎所有的人工智能的主要问题被测试。然而,这是一个非常困难的挑战,目前所有代理都失败了。
人工智能还可以在特定问题上进行评估,如化学中的小问题、手写识别和玩游戏。这种测试被称为主题专家图灵测试。较小的问题提供了更多可实现的目标,并且有越来越多的积极结果。
人工智能测试的主要结果有:
最佳:不可能表现得更好
强大的超人:表现比所有人类都好
超人:比大多数人类表现更好
次人类:表现比大多数人类差
例如,跳棋的性能是最佳的,[143]国际象棋的性能是超人的,接近强大的超人,[144]而人类执行的许多日常任务的性能是次于人的。
一种完全不同的方法是基于通过测试来测量机器智能,这些测试是从智能的数学定义发展而来的。这种测试的例子始于90年代末,使用Kolmogorov复杂性和压缩的概念设计智力测试。马库斯·赫特(Marcus Hutter)在他的著作《通用人工智能》(Springer 2005)中已经提出了机器智能的类似定义,并由莱格和赫特[147]进一步发展。作为一个优势,数学定义可以应用于非人类智能,并且没有人类测试者。
人工智能是科幻小说和关于技术和社会未来的预测中的一个常见话题。与人类智能相匹敌的人工智能的存在引发了棘手的伦理问题,该技术的潜在力量既激发了希望,也引发了担忧。
玛丽·雪莱的《弗兰肯斯坦》,[160]考虑了人工智能伦理学中的一个关键问题:如果可以创造出一台具有智能的机器,它是否也能有感觉?如果它能感觉,它有和人类一样的权利吗?这个想法也出现在现代科幻小说中:电影《人工智能:人工智能》认为一个小男孩形式的机器被赋予了感受人类情感的能力,可悲的是,包括承受痛苦的能力。这个问题,现在被称为“机器人权利”,目前正在由,例如,加州的未来研究所考虑,[161]虽然许多评论家认为,讨论为时过早。[162]
科幻作家和未来学家探讨的另一个问题是人工智能对社会的影响。在小说中,AI以仆人(星球大战中的R2D2)、执法者(K.I.T.T .《霹雳游侠》)、同志(星际迷航中的指挥官数据中尉)、征服者(黑客帝国)、独裁者(双手合十)、灭虫者(终结者、《太空堡垒卡拉狄加》)、人类能力的延伸(壳中幽灵)和人类的救世主(基础系列中的R. Daneel Olivaw)。学术来源已经考虑了这样的后果:对人类劳动力需求的减少,[163]人类能力或经验的增强,[164]以及对人类身份和基本价值重新定义的需要。[165]
几位未来学家认为,人工智能将超越进步的极限,从根本上改变人类。雷·库兹韦尔(Ray Kurzweil)利用摩尔定律(该定律以惊人的准确性描述了数字技术的无休止的指数级进步)计算出,到2029年,台式计算机将拥有与人脑相同的处理能力,到2045年,人工智能将达到这样一个点,即它能够以远超过去任何想象的速度改进自己,科幻作家弗诺尔·文奇(Vernor Vinge)将这种情况命名为“技术奇点”。[164] Edward Fredkin认为“人工智能是进化的下一个阶段”,[166]这个想法首先由塞缪尔·巴特勒的《机器中的达尔文》(1863)提出,并由乔治·戴森在他的同名书籍1998中详细阐述。几位未来学家和科幻小说作家预言,人类和机器将在未来融合成比任何一方都更有能力和更强大的半机械人。这个被称为超人类主义的想法源于阿尔多斯·赫胥黎和罗伯特·艾丁格,现在与机器人设计师汉斯·莫拉维克、控制论专家凯文·沃里克和发明家雷·库兹韦尔联系在一起。[164]超人类主义也出现在小说中,例如漫画《贝壳中的幽灵》和科幻系列《沙丘》。帕梅拉·麦科达克写道,这些场景表达了远古人类的渴望,她称之为“锻造神”[6]