算法与生俱来就有偏见?新晋世界顶尖科学家协会奖得主这样说
发布时间:2024-10-22 19:36 浏览量:11
还有什么工作不可能被AI取代,什么工作可以由AI催生?
算法视角下的人类世界是怎样的?如何确保算法的公平性?未来人工智能是否会完全替代人类行动?
在10月21日举行的第九期浦江科学大师讲坛上,2024世界顶尖科学家协会奖“智能科学或数学家”获奖者、康奈尔大学计算机科学和信息科学讲席教授乔恩·克莱因伯格(Jon Kleinberg)围绕这些问题开讲。
“2008年我们不会想到人工智能将会在视觉分析、语言处理上有那么好的发展,2016年我们也未曾料到人工智能可以和人进行自然对话。”同样惊诧于AI的迅猛发展的他始终认为,这些科学活动都是人类功能的延伸,“如果没有人类的观察和思考,我们就不可能推进这些工作。”
金叶子 摄
算法与生俱来就有偏见
作为算法领域的著名科学家,乔恩·克莱因伯格同时也是美国国家科学院、美国国家工程院、美国人文与科学院院士,与伊娃·塔多斯合著的算法教材《算法设计》,对算法教育产生深远影响。
25岁拿下麻省理工学院博士,28岁发表关于“外部网络的HITS算法”的论文的他,在搜索引擎算法和社交网络底层架构等前沿领域取得了开创性成就。前不久,他和约翰斯·霍普金斯大学讲席教授杰瑞米·内森斯被授予2024世界顶尖科学家协会奖。
在克莱因伯格看来,算法与生俱来就有偏见。在设计算法时,必须考虑到多元化的公平标准,并开发新的技术方法。
多年来,克莱因伯格一直致力于探索如何定义及实现算法公平,尤其是在算法辅助人类做决定的场景。在他看来,公平不只是一个单一标准,而是涉及多个维度。“需要考虑不同的度量标准,确保算法在各个层面上都是公平的。”
有听众提问,如何在研究中考虑到没有移动设备、无法接入互联网的人?世界各国人们常用的社交平台不同,又该如何得到更为客观准确的数据和分析?
克莱因伯格对这一关切表示赞同。他认为,研究者们可以从政府、非营利组织、援助机构等渠道获得多元类型数据,开展物理世界和数字世界的综合比对,同时不能只关注某个特定的平台和地点,要全面关注人类对互联网的使用。
他认为,必须思考算法对人类生活和后代可能产生的影响。他说,除了偏见,算法还可能存在文化单一问题。“如果我们都使用同一种算法做决定,是否会导致作出的决定高度趋同,导致我们的文化也是高度趋同?”在他看来,人类在使用算法工具的时候,设计者、使用者、研究者都需要保持一定的多元性。
在接受第一财经在内的媒体采访时,克莱因伯格说,在某些方面,算法给了我们检测偏见的机会,而人类不容易发现偏见。如果问一个人为什么作出某个决定,即使是善意回答,他们往往也不知道自己做决定的原因。“心理学领域近50年的研究表明,人们很难成功地表达自己做决定的原因。”算法中存在偏见是因为社会中存在偏见。
他对记者表示,人们需要理解并能够识别他们是在与算法打交道。例如,上网时,显示搜索结果、推荐内容、纠正拼写错误或建议重写的每一个都是算法。每个算法都有自己的行为。因此,一方面是识别这种情况的发生;另一方面是考虑它在使用你的数据进行训练时,从中学到了什么。
人工智能如何作用于算法
2014年以来,人工智能技术的发展使互联网的发展进入第三阶段。
“在这个过程中,算法发挥了至关重要的作用,它们能够处理海量的信息,并从中提取有价值的部分。”克莱因伯格指出。
算法的应用也产生许多新的问题。比如,怎样通过算法分析获得更多信息?虚拟信息是否能转化为可研究、可加工的素材?为此,有效利用机器学习和人工智能技术,能让当前以人工智能作为基础的互联网生态体系更为健全。
关于今年诺贝尔物理学奖颁给了两位人工智能专家,克莱因伯格称,这个结果令人兴奋。一方面,人工智能本身就是一个需要理解的科学现象,比如杰夫·辛顿的很多深层次工作。另一方面,AI在我们解释其他科学现象中的作用。例如,AlphaFold的成功实际上是利用模型的力量来揭示某种独立于人工智能问题或蛋白质问题的现象。因此,我们在这两方面都发挥了作用。
克莱因伯格透露,最近他们团队在研究世界模型的问题,试图理解当他们与一个人工智能系统进行互动时,这个系统的结构会是怎么样的。