同学们请注意:你们的美女 AI 助教就要来上课了!

2016-09-09 10:32:20     作者:何忞      来源:雷锋网

我热爱学习,学习让我快乐。

编者按:如今世界的变化速度之快,简直要赶上科幻小说了。 自动驾驶汽车迅速发展,卫星在周围小行星上寻找铂金矿,AR 游戏让死宅们走向公园(抓精灵)……

这些科技究竟能让未来的我们进入天堂还是跌入地狱,也许取决于我们是否能科技提升全人类的生存质量。而教育领域也是一样。

sinoustimes

在人工智能(AI)领域,也有着这么一家为全人类教育事业着想的企业:Value Spring Technology,简称 VST。他们正在发明一个名叫“Ali”的人工智能教师,可以用自然语言来辅导全世界不同年龄段孩子们任何感兴趣的话题。而让他们能够实现这一终极目标的工具,就是它们开发的 enterpriseMind 平台。

与其他几乎所有 AI 都不同的是,这个平台可以理解语言的内涵并重写自己的程序,也许真真正正的人工智能将从这里产生。

为了展示 enterpriseMind 平台和“Ali助教”的潜力,Ali的第一个大项目是帮助辅导 Enterprise in Space 项目的同学们工作,这个项目是将一个3D打印的航天器发射到地球轨道,并完成全世界超过 100 个学生团队的实验项目。

在采访中,VST 公司团队介绍了 Ali 的工作过程、它与其他已有的 AI 软件的不同之处、以及它是如何在学生对整个学习生涯进行辅导的。

enterpriseMind 是如何工作的?

1984年,VST公司的创始人兼 enterpriseMind平台发明人 William Doyle,注册了他的第一个 AI 软件专利,用来模仿人类思维活动。

这个AI专利基于一种可以从非结构语句中解码字句意义的“含义引擎(meaning engine)”,为数据引擎和保险承销领域编写软件。它能收集各个保险公司承销政策的数据,然后根据数据分析,为公司经营编写程序。

30 年后,经过几代 AI 专家及 IBM 工程师的不懈努力,Doyle 的这个 AI 专利成为了enterpriseMind 平台和 VST 公司的基础,并最终成为了吸引 IBM Watson 的认知计算系统技术。现在,Watson已经开始发展 AI 认知计算语言,VST 也正在 enterpriseMind 平台上建造 AI 的自然语言界面。

要理解 Doyle 的 AI 是如何工作的,我们可能需要更多的心理学课程而不是计算机课程,因为 enterpriseMind平台是基于实际人类认知规则而建立的。

在心理学中,记忆理论模型有两种方式,程序性记忆和陈述性记忆。

程序性记忆中包含着你如何完成工作的信息。如果你是个数据架构师,程序性记忆会告诉你如何设计一个数据库。所以,我们的 AI 中存储有程序性记忆和知识。

另一种记忆是陈述性记忆,它又包括两种:

  • 情景记忆(比如,生活中的事件——早晨起床、喝咖啡、开电话会议等)

  • 语义记忆,包括单词概念、句子和故事。


VST 的 AI 如何利用三种基础意义来理解长故事中的概念含义

Doyle 补充说:“我们认为,认知取决于单词、句子、故事,以及这些元素相互作用组成程序性知识。我们的人工智能现在可以做一些程序性的事情,比如设计数据库、编写软件代码。并且,它还可以理解意义、进行记忆,学习并对客户数据进行分类。”

但是这些是如何编译到人工智能算法中的呢?虽然 enterpriseMind 是基于人类认知原理设计的,但是毕竟还是要将这些规则在某种程度上转化成计算机科学。

为了使 AI 像人类一样思考并完成某项特定的工作, VST 公司为 AI 编写特定软件。比如在设计复杂的数据库时,程序令 AI 按照数据工程师建造数据库的步骤来进行设计工作,这样就构成了AI的程序性记忆。

Doyle 说道:“我们通过采访数据工程师们,了解他们如何工作,比如,如何设计数据库?如何写代码?如何整合两个数据库?我们收集了这些信息,并构建出我们对于数据工程师工作的模型。”

图中为 VST 数据工程师软件界面,显示出数据工程师与AI的交互方法

“run”的 129 种含义

接下来更重要的一步是,AI 需要对新遇到的数据做出真实反应。VST 的认知计算软件可以理解单词、句子、故事之间的关系,这正是将 VST 的技术与其他人工智能技术区别开来的关键所在。

Doyle解释说:“人们使用的语言本身是模糊的。一个单词‘run’,看起来非常简单,却也有129种不同的含义,单词‘party’也有9种不同的含义。平均而言,每个英文单词至少有7种含义。这种模棱两可常常隐藏在我们这些自然语言使用者口中,因为我们实际上并不会感到含义模糊。人们通过句子、短语等语言单位的意义来消除模糊含义,我们正是基于这一过程来建造 enterpriseMind 平台。如果不能人为消除模糊语义,就无法实现语言功能。

当大多数AI还依赖于在内容中寻找关键词,再根据关键词来运行脚本时,enterpriseMind 已经可以推测内容含义了。

这就是为什么当你向Siri提出一个问题时,她一般会推送出与问题关键字相关的搜索结果。当问题还是“今天天气如何?”时,这种策略还行得通,但是当问题更复杂一些时,比如“地球到火星距离多远?”,这种答案可能就牛头不对马嘴了。

与Siri和Google Search不同,VST 的人工智能解释是,“地球与火星的距离是不固定的,与行星绕太阳的旋转有关。”

 对该问题一般的搜索结果其实并没有理解“火星”的含义,他们将“火星与地球的距离”视为与“最近的星巴克在哪”一样的问题。但是我们都知道,火星可不能和星巴克混为一谈。


软件发展部门副主席 Allan Elkowitz 详细解释了 VST 技术与市场上其他人工智能的区别:

“我们与其他只是读取既定脚本的人工智能不同的地方在于,enterpriseMind 能够理解文字或语言的内在含义。一段语句实际是一个有很多列的结构数据库,我们可以在机器智能中运行这个数据库,从而确定每一列的意义。如果你想要合并两个保险公司,它们分别有一个不同的数据库,两库中对同一事物定义为不同的名字,那么我们可以在两库中互译,然后将它们合成一个数据库。”

Doyle 用纽约时报一篇讨论 1993 年世贸中心爆炸事件的文章举例。将这篇文章输入到软件中,AI 可以通过对每个单词以及它们与文章关系的检查,把文章划分为几个相关的概念,比如“爆炸嫌疑人”、“袭击受害者”,然后,AI可以从文中找到“谁是嫌疑人”的答案。

为 AI 载入知识

在AI能够完成复杂任务,如数据库建造、保险服务或教育之前,我们必须为程序提供大量相对应的知识。拿保险举例,该公司的AI明白什么是“保险”、“政策”、“第一时间损失通知”,就VST 团队所知,enterpriseMind 是唯一一个能实现该功能的技术平台。

最终,AI 可以写出自己的软件程序。换句话说就是可以进行机器学习。当遇到新信息时,平台可以重写代码来适应这些新数据,添加新的规则和例外情况。 

有了AI 理解含义用的知识图书馆和可以解码理解信息的意义引擎,加上自我学习和自写程序的能力,人工智能在未来就可以自动完成复杂的人类工作,比如处理大量复杂数据,这可以极大地解放数据工程师和保险精算师的计算工作,使得他们更专注于其他重要事务。

目前,VST 的人工智能技术正应用在保险承保和风险分析领域、创造并管理数据模型领域、以及监测和管理基础设施数据领域。但是想让 AI 成为助教,VST 还需要为程序加入自然语言界面,以便于老师和学生能与它像人类一样对话。

教学和语言的动态性

EIS是一个全球在线教育机构,为全世界学生提供免费的前沿领域的教学资源和课程。它正在与VST合作发展人工智能个人助教 Ali,帮助全世界的老师和学生教学与学习。

Doyle指出:“对于像 Ali 这样的人工智能来说,与人类用自然语言交流的关键在于,她需要自己为自己编程。在人类认知中其实并没有什么魔法,在 Ali 身上也没有,只是一种不同的编程方式。模仿自主人类的人工智能Ali,在与人类对话时能改变自己的软件程序,学习知识,拥有情景体验……总之,在与人类对话和学习中她无法对时间进行预测,她只能为自己写脚本、写软件,编造对话。”

“人类的对话是动态性的,是自发地产生语句,做出判断和选择。与其他软件程序不同,人类没有固定脚本的对话。这也正是我们发展的人工智能的独特之处。”

Ali 将通过 IBM Watson 的各种内容分析API应用程序编程接口(如文字到演讲、演讲到文字、WatsonSPSS 机器学习基础),来学习自然语言。VST 的合伙人兼 COO Taffy Holliday 说:“这些 API 让 Ali 变成一个云端助教。我们利用 IBM Watson平台的工具,在它们的基础上工作,同时,也将超越它们。我们也与 IBM 工程师合作开发云数据中心,这样全世界各地的学生都可以连接到 Ali。”

图中展示了 VST 的意义引擎是如何在 Watson 中将非结构化数据转换成结构化数据的

Doyle说,大约 80% 的商业分析依赖于非结构化数据的分析

教 Ali 如何当老师

为了实现 enterpriseMind 平台的教育功能,VST 团队并不会对原有的数据库运行模式加以设定,他们将要设定的是老师教学学生学习的模式。

为了将教学过程模式化,EIS教育机构令 Doyle 和他的知识工程师学习了他们精选的全球各种专业名师的10分钟课程。在学习了不同老师针对不同学生在同一内容的教学后,Doyle 相信,VST 团队可以做出一个有效的模型,体现出知识的交流过程,以及师生间应有的程序化任务。然后,Ali 可以面向世界,给学生们当老师,在教学过程中继续学习并不断改进她的程序。

Elkowitz 把这个过程描述为:“我们吸取老师的教学内容,并将其变成成功的模板。当其他问题提出时(这个问题可能还没有答案),Ali会遵循这个模板过程进行思考:这里有个问题——问题内容是这样的——我对此应该知道这些——我应该去哪里寻找答案——我找到了答案——我将答案反馈给学生。

另外,Ali 还会借助于其他机器学习算法,对用户的外貌或声音数据进行处理,从而对提供相应课程。根据不同学生的学习方式,找到最适合的方式来满足学生需求。

EIS 项目经理 Alice Hoffman 补充道:“对于有残疾的孩子,Ali 意义重大。Ali 助教会不厌其烦地用不同的方式对残疾孩子教授同样的内容,直到他们完全理解。这对于盲人及聋哑人孩子来说,非常适合。”

更好的 AI 思维,只为更好的人类

VST 将与 EIS 一起在未来的几周内训练 Ali 成为助教,名师课程的内容也会随之输入进程序内来帮助训练Ali。为了查看Ali是如何处理数据的,VST 团队在程序中加入了插件,可以显示出 Ali 的“知识地图”,通过这个地图,我们可以直观地看到 Ali 如何形成单词和语句。如果工程师发现 Ali 的错误,也可以通过地图来追溯错误的来源。

事实上,这个地图就是对 Ali 大脑的一个监控。如果可能的话,我们也可以将人类的大脑与 Ali 的大脑相比较。Doyle想要利用 fMRIs 技术来对人工智能和人类的大脑进行比较。

加州大学的心理学家 Jack Gallant 曾利用 fMIRs 技术展示出人类在听取单词时大脑特定区域的血量增加。Doyle 想做的是,利用 fMRIs 监测老师教学时和学生学习时的大脑血量情况。在理想情况下,这些数据应该能帮助 Ali 建立对单词、句子、故事更好的认知,让 Ali 的大脑像真正的人类一样工作。

如果 Ali 最终取得成功,那么就意味着全世界数以亿计的孩子们可以在没有任何教育基础设施的环境下拥有一个私人老师。如果2020年前全世界的互联网真正连成一体时,那么这些学生就可以在图书馆或者只是使用父母的智能手机,就可以和 Ali 一起学习。

当然,非虚拟环境下,Ali 也为学生和老师带来很多好处。这位“助教”将把老师从无休止的解决问题中解放出来,学生们可以自行选择喜欢的课程内容,课程深度和教学方式。学生也无需背着重重的课本,在台灯下苦读,所有的一切都在 Ali 的程序里面,随手可得。

via engineering

推荐阅读:

IBM为教师打造机器人助手,全面优化远程课堂体验

在线教育初创公司Udacity创始人Sebastian Thrun谈人工智能,不会颠覆教育,却能帮助老师

返回沙发首页  
沙发管家微信
扫描关注沙发管家微信 QQ群: 沙发网官方群 微博:

资讯评论

亲,你需要登录后才能进行评论喔!

还没有评论,快来抢沙发吧!

提示

热门设备安装方法 查看更多>>