插图由Stephanie Dalton Cowan绘制

The Future of AI

人工智能即将改变社会. How do we develop it safely?

2022年,OpenAI公司发布了一个名为ChatGPT的人工智能程序, 它代表了我们如何使用技术的巨大变化. 人们可以突然和电脑对话,感觉就像和另一个人说话一样, but that was just the beginning. 人工智能有望颠覆一切,从我们如何编写编程代码和作曲,到我们如何诊断病人和设计新的药物疗法.

The possibilities were endless. 自30年前互联网实现大规模应用以来,人工智能将以前所未有的规模改变人类. 就像之前的互联网热潮一样,人工智能的淘金热令人目不暇接. 科技公司竞相为我们提供人工智能服务, 微软和Alphabet等大公司吞并了小公司. 华尔街投资者也加入了这股热潮. For instance, Nvidia, 该公司生产了大约80%用于人工智能的高性能计算机芯片, 今年3月市值达到2万亿美元, 使其成为全球第三大最有价值的公司.

但在所有这些令人兴奋的事情中,我们如何确保人工智能以一种负责任的方式发展? 人工智能会威胁到我们的工作吗, our creative selves, and maybe even our very existence? 我们向电子游戏软件计算机科学系的四位成员——威廉·格里菲斯教授提出了这些问题, Emily Prud’hommeaux, George Mohler, 和布莱恩·史密斯,以及爱丁堡大学科技未来中心的吉娜·赫尔弗里奇, 电子游戏正规平台人工智能和其他技术的伦理影响.

为了清晰和篇幅的考虑,这段对话经过了轻微的编辑. 赫尔弗里希单独接受了采访,她的评论也被加进了谈话中.  


我们经常听到人工智能的奇迹,但我们应该问什么问题呢? 

William Griffith: 如果你回想一下社交媒体,它实际上改变了我们运作和互动的方式. 我想知道人工智能将如何扩展或走向不同的方向. 我们应该从许多伦理角度来看待人工智能, such as justice, responsibility, duty, and so on. 我的感觉是,这就是思考我们面临的大多数挑战的方式, 不仅在技术上,而且在社会和环境上.

Emily Prud’hommeaux: 其中一个大问题将是真实性. When media, images, language, 或者通过人工智能创造语言, 它已经到了这样一个地步:它是如此之好,以至于很难知道它是由人类还是人工智能生产的. 这是人们目前正在努力解决的一件大事——如何教育人们,让他们能够分辨出其中的区别, 因为它会变得越来越难. 

George Mohler: The question I find interesting is, 这是一个直接存在的威胁,还是有点言过其实? 如果你看看发明这项技术的专家,他们实际上是分裂的. 他们中的一些人认为,在20年内,我们可以拥有比人类更聪明的人工智能. 另一部分人工智能电子游戏正规平台人员认为,我们离那还很远. 

Brian Smith: 首先出现的问题之一是人们如何处理这些事情的道德规范. How will students, schools, teachers, 教员们要处理的是一台机器,它基本上可以帮你做作业? 问题是,人们会说,“人工智能是一个新事物,我们会害怕它.“但现实是,真正的问题是学术诚信. 因此,在我们开始考虑技术方面的问题之前,必须建立一种围绕学术诚信的价值体系.

Prud’hommeaux: 我认为大多数学生都在使用ChatGPT来指导他们. 我不认为有多少学生会从ChatGPT中大量复制文本,并将其弹出到Word文档中,然后提交给他们的班级. 但是我注意到,我可以分辨出什么东西是由ChatGPT编写的,因为它在某种程度上听起来真的很愚蠢. 听起来像是一群营销主管写的.

那么,在ChatGPT时代,我们如何促进学术诚信呢? 

Gina Helfrich ’03: 我不知道教授和大学领导是否有一个很好的答案. It’s all still so new. 人们在使用这些工具的方式上仍然具有非凡的创造力. 但是,创建这些工具的公司一开始并没有清晰的愿景,知道它们应该用来做什么. 我不认为假设所有学生都想在论文中作弊是有帮助的. 更有趣的是看看学生选择作弊或抄袭的原因, 而不是把AI单独挑出来,认为它很特别. That being said, 有一种感觉就是要走在技术的前沿, 大学应该欢迎使用生成式人工智能(可以在人的指导下创作原创文章), videos, images, etc.]. Yet, 课堂上发生的许多事情仍然取决于个别教师, and some instructors will say, “Yeah, go to town, use generative AI. We don’t mind.其他人会说:“绝对不行。.“从学生的角度来看,对这些工具有着截然相反的期望和体验,这一定很有趣, 我真的不知道他们是如何应对的. 我的感觉是,大学领导们真的在争先恐后地试图弄清楚他们应该在这些工具上采取什么立场.

Rule

 

图片插图威廉·格里菲斯


William Griffith
BC大学计算机科学系实践副教授

Griffith之前是BC计算中心的副主任,电子游戏正规平台技术的伦理和谨慎使用. 他是有执照的临床心理学家.

Rule

 

人工智能还将如何影响我们孩子的发展? 

Griffith: 这项技术将如何影响孩子的认知能力, emotionally, 在他们的教育方面将是一个严重的问题. You can invent personalities, 你可以用比以前更现实的方式来发明东西, 孩子们会想出如何使用这项技术. 我非常关心孩子们的发展和这个软件的存在.

当然,不仅仅是高等教育. Corporate America, Wall Street, the military, 许多其他行业也在努力解决这些问题. 政府是否应该介入并监管人工智能?

Mohler: 人工智能有很多不同的类型,每种类型都有自己的问题和监管途径. For example, 像ChatGPT或Llama这样的聊天机器人, 问题更多的是围绕版权问题——他们是通过使用别人的数据来训练的——以及该怎么做. 有些人说,“哦,我们应该停止训练这些模型.” That doesn’t make sense to me. 人们和科学家能够调查这些模型,然后找出版权问题,这是有意义的. 在光谱的另一端,你有像军事用途的自主武器. 这不会受到美国的监管——需要一些国际条约. 还有一些技术,比如自动驾驶汽车或医疗 will need some sort of regulation.

Prud’hommeaux: 我最近在为我们的主要专业会议审阅论文, 我读到一些人提议用聊天机器人进行心理健康治疗. And for every single paper, 有个评论者说, “我认为这不一定是人工智能的道德应用, 用机器代替人类来帮助一个心理健康状况紧急的弱势群体.“我可以想象,这是政府相对容易监管的事情. 我现在在教刑事司法课, 我们正在电子游戏正规平台的一个问题是如何处理累犯, and how do you predict that? 当一个人出狱后,他能更好地预测一个人是否会再次犯罪吗? 电脑能做得更好吗? 我可以想象,这也会受到监管. 但他们想要监管的一些事情更复杂,比如, 如果有人要求制造炸弹,你如何强迫AI不告诉他们? 你可以欺骗AI为你做很多事情,它会给你带来好处, accurate information. 一家公司应该如何防止这些事情在他们的软件中发生呢? 我认为很多这样的监管将很难实施.

Helfrich: Historically, 我们已经看到了各种各样的创新, 政府需要一段时间才能赶上进度. But ultimately, 我认为公众确实希望政府能够介入,确保向公众宣传和出售的东西不会有严重的危害. 我认为我们现在已经到了这样的地步,世界各国政府都在追赶过去几年围绕人工智能的巨大变化,并开始制定一些急需的法规. 我确信这最终将是一个迭代过程. 也许我们会对规则进行第一次迭代,我们会找到它起作用的方式和可能不起作用的方式,然后回来做出改变,使它更好地发挥作用. 

Rule

 

图片插图吉娜·赫尔弗里奇


Gina Helfrich ’03
爱丁堡大学未来技术电子游戏正规平台中心经理

赫尔弗里奇的工作重点是人工智能发展的伦理影响, machine learning, and other data-driven technologies. A PhD, 她还是爱丁堡大学人工智能和数据伦理咨询委员会的副主席.

Rule

 

据报道,人工智能已被用于选择无人机攻击的目标. 如果人工智能在战时犯错,谁来承担责任?

Helfrich: 在思考道德人工智能时,谁该负责是一个重要的话题. 电子游戏正规平台者玛德琳·克莱尔·埃利什提出了道德崩溃地带的概念. 汽车上的折叠区是用来承受碰撞时的冲击的, 从而保护车内的人和乘客. 道德崩溃区本质上是最接近人类的人,无论发生什么事,都可以归咎于电脑. Keeping with the theme of cars, 想想一辆像特斯拉这样的汽车,它在发生碰撞时处于自动驾驶模式. 我们说这辆自动驾驶汽车撞车了. Who should we hold responsible? 那个把车调到自动驾驶模式的人? 这是我们能指派给的最接近的人, 所以他们处于道德崩溃区. 这绝对是值得关注的事情, 因为这可以让一些正在推动人工智能工具的公司摆脱困境. At the same time, 在使用科技公司开发的人工智能工具的组织中,也有决策者. 这些人也需要对任何错误负责. 如果我们说的是军事用途, for example, 军队里肯定有人打电话来说, “我们将把这些定位决策委托给一台机器.” If the machine makes mistakes, 谁决定让机器来做这些选择? 围绕人工智能工具的集体责任和责任问题是我们必须牢记的, because they’re so complex, 因为它们的开发和部署过程经历了很多, many hands.

Griffith: Using AI in warfare has complex, 多层次的伦理和政治影响, 从国际比赛到个人比赛. 人工智能什么时候可以自主决策,如果有的话,什么时候需要人工干预?  这也提出了一个问题:机器可以被编程为具有人类道德决策能力吗? 决策者面临的挑战是制定经过深思熟虑的法律和道德标准,这些标准将在个别国家和国际范围内适用. 人们会说:“好吧,是软件出了问题,你不能去找程序员的麻烦.“我认为其中一些程序员应该成为有执照的工程师, 从某种意义上说,如果塔潘泽大桥不是由有执照的工程师建造的,你就不会上它. 当涉及到许可时,软件行业需要像工程专业一样思考自己. 这也许是责任的一部分, 但也有一些著名的医疗设备致死的案例,因为使用它的医院没有进行足够的调查, 使用它的人没有受过足够的训练, 设计它的人使用的是软件而不是硬件. 在这种情况下,你无法最终分配责任,因为游戏中有6名玩家. 所以我不确定我们如何规范它. That’s a difficult problem. 

Rule

 

George Mohler的图片插图


George Mohler
Daniel J. 菲茨杰拉德教授和BC计算机科学系系主任

Mohler的电子游戏正规平台重点是解决空间问题的统计和深度学习方法, urban, and network data science.

Rule

 

但对于我们人类来说,把决策权交给机器意味着什么?

Griffith: 当然,它会让我们在精神上和其他方面变得更懒.

Smith: 有了这些工具,你去查询一些东西,它就会告诉你一些东西. Whereas, not that long ago, 我们就得去谷歌找链接, 然后我们需要做一些心理处理来理解搜索结果. 现在你甚至不需要去想它. Context becomes really important. 在什么情况下使用这些东西来获得一些效率是有意义的, to speed some things up, 希望不要剥夺我们自己的能力? And then, of course, 它也提出了一个问题:什么是需要知道的,就像搜索引擎提出什么是需要知道的一样. 我记得有人说,“哦,孩子们已经不知道内战的日期了.” Who cares? 真正重要的是,为什么会有内战?

Griffith: 瑞士心理学家让·皮亚杰说,你需要挑战来成长和发展你的认知能力. 如果这些技术让一切变得更简单,你如何变得更聪明?

制定负责任的人工智能发展国际标准存在哪些障碍?

Helfrich: Those efforts are already underway. 在各种不同的组织中,围绕负责任地使用人工智能,已经制定了许多不同的原则. 但围绕人工智能的竞争存在地缘政治斗争,就像美国与中国一样. 这种紧张关系导致无法达成更统一的国际协议. 我的同事们指出,我们已经完成了其他所有人都认为非常重要的事情. 例如,有关于飞机的国际标准. 所以我们很有可能会在人工智能方面看到类似的情况. And if we don’t, 那么我们就可以预期在世界不同地区会有不同的人工智能制度. 中国对人工智能的期望可能与美国或欧洲的期望有所不同.

随着人工智能使生成看起来真实的图像变得越来越容易, 我们怎么能相信我们在网上找到的任何东西? 我们正在进入一个前所未有的错误信息时代吗?

Prud’hommeaux: 其中一个挑战是,对于大多数人来说,很难区分由计算机创造的东西和由人创造的东西. 科技公司总是在竞争谁能在人工智能领域领先谁, 但我觉得他们可以扮演另一个角色, 那就是开发技术来帮助识别由计算机创造的东西然后教育人们. 也许公司更有责任说:“这是一张图片. We think it’s not a real image. 我们认为这个形象是人为创造的.”

Griffith: 这让我想到抚养那些受这种技术影响的孩子, 以及我们将如何教他们做出这些决定,并处理这些我们留给他们的创造, 我不确定教育系统是否能做到这一点.

Helfrich: 我认为数字素养是解决方案的一部分,但它本身肯定是不够的. 人们正在努力寻找新的方法来验证图像的来源. 但人类只能如此警惕. 我真正上当的第一张深度假照片是教皇身穿巴黎世家(Balenciaga)大衣的照片. I just thought, Oh, cool jacket—good for you. But the image was a fake. 像这样的事情愚弄像我这样的人的原因是因为我们没有理由警惕或怀疑教皇穿着夹克的照片实际上是不准确的. 所以我认为这是恶意行为者真正具有优势的地方, 因为人类没有足够的毅力对我们遇到的每一件事都保持警惕, “Is this real? Is what I’m looking at a deepfake?” It’s exhausting. 你不能每天每时每刻都这样质疑你的现实. 这就污染了我们的信息环境, 因为我们可能会陷入这样的境地我们所依赖的数字基础设施, like Internet search, 被人工智能生成的内容所污染. 我们不再知道如何甄别真假, 因为我们已经习惯了在谷歌上搜索有用的信息. 但是,当你去谷歌,发现排名前十的结果都是人工智能生成的废话时,会发生什么?

Rule

 

图片说明:Emily Prud 'hommeaux


Emily Prud’hommeaux
BC省计算机科学系Gianinno家族一百五十周年助理教授

Prud 'hommeaux的电子游戏正规平台领域包括自然语言处理和将计算技术应用于健康和无障碍问题的方法, 特别是在语言和语言学领域.

Rule

 

复制人声的技术精确得惊人. 我们读到过人们被骗子模仿爱人的声音欺骗的故事.

Prud’hommeaux: 生成语音的技术实际上非常好. 它曾经非常可怕,你可以立即分辨出是不是合成的声音. 现在它变得更加困难了. 我都不知道你怎么能阻止这种骗局的发生, but unfortunately, those kinds of scams are happening. 即使没有人工智能的帮助, 人们一直在通过电话、互联网和短信被骗,把钱寄到他们不应该寄钱的地方. 我认识一些受过教育的人,他们成了这类骗局的受害者. 所以我觉得现在模仿别人的声音确实很容易, 可能只有很小比例的骗局实际上依赖于这种技术.

Helfrich: 我们可能会认为人工模仿人类的声音太危险了, and if it’s too dangerous, it’s off the table. 是的,也许在很多方面它都是有用的. 也许它可以给那些依赖技术来表达自己声音的人一个更有力的声音, 比如那些不能再用声带说话的人. 但也许我们认为,合成声音带来的所有欺诈和骗局的危害超过了好处. 这些问题如何在监管层面得到解决还有待观察, 但权衡利弊将是做出这些决定的重要组成部分.

人工智能已经允许工人将一些任务卸载给计算机. 是否存在这样一种风险,即这项技术可以改进到完全不需要人类工作的程度?

Prud’hommeaux: 今年早些时候的演员和编剧罢工很有意思. 这很大程度上与人工智能有关. 工作室会用ChatGPT之类的东西取代编剧吗? 人工智能能创造出演员从未表演过的镜头吗? 我认为他们真的是走在了潮流的前面,因为他们出手了, 因为他们认识到了自动化, artificial intelligence, 机器学习可能会取代它们. 我认为这不会很快发生. 我们可能很快就会碰到一些自然的人工智能极限. 但我确实认为,在其他领域也有同样的潜力. 计算机程序员总是担心他们会被ChatGPT或微软的Copilot或其他什么东西取代. 我当然可以看到这种可能性, but right now, 如果你要求ChatGPT做很多编码的事情, it kind of gets it right, 但它会编造一些东西,把一些东西搞错. 你肯定还是需要一个人来让它工作,并把它集成到系统中. 所以我能看到它的影响,但我不认为这是现在正在发生的事情.

Helfrich: 到目前为止,我们所看到的是,任何试图用人工智能大规模取代人类的公司后来都不得不放弃. AI在各种情况下的表现都不符合规范. 许多工作场所的担忧都与用生成式人工智能工具取代员工有关, 这些工具没有真假的概念. 他们根本不知道什么是对现实世界的精确. 因此,有一种内在的风险是,生成式人工智能工具会犯一些有意义的错误,而这些错误会反过来伤害雇用它们的公司. 很多这样的工具还没有为黄金时段做好准备, 这种炒作可能过早地让一些公司相信他们已经准备好了——而这些公司正在为这些选择付出代价. 人们习惯做的一些工作将移交给人工智能工具, 而是在人工智能完全自主地取代人类方面, 在我看来,这在中期的任何地方都不可行, 因为这是一个未解决的问题.

Rule

 

Photo illustration of Brian Smith


Brian Smith
Honorable David S. 他是林奇教育与人类发展学院尼尔森主席兼电子游戏正规平台副院长

史密斯电子游戏正规平台基于计算机的学习环境的设计, human-computer interaction, and computer science education. 他还和计算机科学系有个约会.

Rule

 

事实证明,人类的偏见会影响从刑事司法系统的结果到美国企业的招聘决策等方方面面. Since humans are designing AI, 我们如何防止人类的偏见进入这些新技术?

Griffith: 我认为我们永远无法摆脱偏见. 它总是存在的,因为文化有不同的价值观. A bias doesn’t mean negative. 但如果它变成了一种偏见,那我就会开始思考我们该如何治理它. 有偏见的数据最初是如何进入这些文件的? 人们一定问过问题,而这些问题一开始是有偏见的. They’re value-laden. 看看那些导致制定有偏见的法律的偏见, 做出有偏见的雇佣决定, and so on and so forth.

Prud’hommeaux: 这并不是说算法有偏见,也不是说制作算法的人有偏见什么的. 而是他们所依据的数据是有偏见的. 这可能是世界上存在的一种偏见, 或者这可能是创造内容的个人的偏见. 实际上,我让我的学生要求ChatGPT为一位计算机科学教授创建一份简历, and it was like, “He did this. He did that. He has a degree from this place.当我让他们为一位英语教授做这件事时,得到的回答是“她”.对于一个护理学教授来说,是“她”.“对于一个工程学教授来说,是”他说.” Maybe ChatGPT is like, 世界就是这样,所以我要预测最可能发生的事情. 我认为数据中存在很多偏见,试图消除这种偏见是很复杂的. 很多偏见并不一定是人们被偏见了. 他们中的许多人只是反映了世界在某些时候的方式.

Mohler: 用这些模型来做决定, 我们对不同群体的个体评估它们的准确性. 我们可以明确模型的弱点. 然后,因为我们可以检查模型,我们可以试着调整模型来减少偏差. 计算机科学有一个完整的分支领域,试图解决算法公平和偏见的问题. 有人在努力解决这些问题. 如果一个算法或一个人要做出一个关键的决定,可能两者都有偏见. 有没有可能在循环中加入一个算法,我们可以让这个决定不那么有偏见? I think the answer is yes.

Griffith: 为什么这些程序必须以我们的方式思考? 如果他们的想法不同,那是积极的吗? Could they investigate our biases?

Helfrich: It’s a huge difficulty. 现在,很多人工智能训练数据来自互联网. 这就引出了一个问题:谁在互联网上最具代表性? 例如,英语的使用比例就被大大高估了. 所以尽管拥有一个多元化的开发团队对于改善AI工具的偏见问题非常有帮助, that is by no means enough, 因为人工智能工具所基于的数据显示出社会偏见. 被数字排除在外的人不是人工智能工具训练数据的一部分. It’s a really difficult question.

似乎每天我们都能读到一家科技巨头收购一家新的人工智能公司的新闻. 这么少的公司对这项新技术有这么大的控制权,这是个问题吗?

Prud’hommeaux: 他们才是真正有能力建立这些模型的人. 像ChatGPT或DALL-E-a这样的东西,大学无法真正做到这一点. 我们没有这样的资源. 唯一能做到这一点的人就是这些大块头, 大公司拥有大量的资金和大量的计算资源. So, 直到我们弄清楚如何让人工智能需要更少的资源, 肯定是他们干的. 美国国家科学基金会(National Science Foundation)正在努力创建某种国家人工智能电子游戏正规平台资源,为美国的电子游戏正规平台人员汇集计算资源,使他们能够拥有与这些公司类似的资源.

Smith: I suppose the question is, 即使有国家科学基金会的预算, 你能制造出像谷歌或英伟达这样的东西吗? 计算能力是如此之大. 我和另一组正在考虑是否可以集中电子游戏正规平台的大学进行了交谈:“我们不想落在后面. 我们如何联合起来建立我们自己的基础设施来创建由大学主导的模式?我看着他们,心想:“嗯,这是一个精英团体。. 所以如果你们这么做,你们不会有效地解决同样的问题吗? 这将是大学精英,而不是企业精英.” There lies the problem. 我说,“我告诉你,你为什么不增加你的团队? 一些历史上的黑人学院和大学,一些少数族裔服务机构?” And this was a panel. 所以他们说,好吧,我相信我们没时间了.”

一些著名的人工智能电子游戏正规平台人员签署了一份声明,警告称人工智能可能导致人类灭绝, 科幻小说经常描绘人工智能获得某种感知能力,从而导致竞争意识的发展. How plausible are these scenarios?

Mohler: 人们应该思考人工智能技术在哪些方面做得好,在哪些方面做得不好. 人工智能可以写出一篇似是而非的大学论文. 但我们没有人工智能可以打扫你的房子. 我认为这里的区别很重要, 因为通常我们会认为, “Well, 写大学论文比收拾厨房里的盘子要难得多.“但事实上,我们离拥有任何可以为我们做到这一点的技术还很遥远. ChatGPT can’t plan. 它不会以你想要的方式推理. 它只是测量文本的相关性,然后输入缺失的文本. 我认为,要让电影级别的人工智能出现在我们的生活中,还需要很多步骤, 目前还不清楚如何才能达到这样的技术水平.

Smith: 有人问我:“那HAL呢 2001: A Space Odyssey and movies like that? 我说,“所以这是合理的,因为它发生在电影中? 你能给我举个非虚构的例子吗关于机器试图杀死人类?那个人很生气,说:“这一点都不好笑。.” I said, “No, it is. 因为你不能给我一个这样的例子.” Mr. 咖啡从来没有决定过某一天, That’s it. We’re taking them down. Alexa didn’t say to the room, 绊倒他们,把他们打晕,让他们脑震荡. It doesn’t happen. 对我来说,人们会想象这是一件很奇怪的事情, “Oh, it’s the end of the world,“当世界上正在发生的事情,我们实际上可以关注,需要关注, 而不是想象Roomba真的疯了然后走, like, That’s it ... ◽