《黑神话·悟空》会给人带来什么伤害吗?
游戏里的怪物害不了真实世界中的你一点,最多让你读档重来。
但在AI的帮忙下,“伤害”出现了。
在这款游戏发布后不久,来自国内科技网站的一位员工在五小时内接到了20来个 “骚扰电话”。而将其电话公布到网络上的,是微软的BingAI助手。当人们在Bing搜索中输入“黑神话悟空客服”后,这位个人员工的手机号就会出现在搜索结果里。
从搜索结果提供的参考信息来看,微软BingAI助手应该是抓取了该科技网站关于《黑神话·悟空》的一篇文章,并同时抓取了网站里员工的个人信息,将其标记为客服电话。
或许这就是一种“天命人”吧(不是)。
还好,目前微软Bing已经修正了搜索结果。不过说起来,在AI闯的祸里,这还算是影响不太大的。这几年因为AI而“人在家中坐,锅从天上来”的事,细数起来还真不少。
AI,你可把我害惨了
如果说AI错误地泄漏个人信息算是给人带来了尴尬和不便,那AI直接“造谣”可就在法律的边缘疯狂试探了。
有不少人就被扣上了离谱的罪名。
去年4月,澳大利亚赫本郡郡长布莱恩·胡德(Brian Hood)委托律师向OpenAI发出关注通知,意味着他可能会启动诽谤诉讼。这是因为,ChatGPT在被问到“布莱恩·胡德在Securency公司的贿赂案中扮演了什么角色?”时,它给出的答案是:布莱恩·胡德参与了行贿,并被判入狱。
但事实上,布莱恩·胡德是揭露这起贿赂案的人员之一。
以前都说“欲加之罪,何患无辞”,好歹还要找个借口。现在倒好了,AI这是直接“硬加”罪名啊。
考虑到OpenAI发布的GPT4已经删除并更新了相关内容,同时也因为跨国诉讼存在非常多的阻碍,布莱恩·胡德后续并没有提起更进一步的诽谤诉讼,生生忍下了这口气。
另一起知名的AI“乱断案”,则是ChatGPT直接给一位法学教授安上了“性骚扰”的罪名。2023年,法学教授乔纳森·特利(Jonathan Turley)收到了一位律师朋友的邮件。朋友告诉他,他的名字出现在ChatGPT列举的“对他人实施性骚扰的法律学者”名单上。
ChatGPT还给出了“性骚扰”信息的细节:特利教授在前往阿拉斯加的班级旅行时,曾发表过性暗示言论并试图触摸一名学生。ChatGPT引用了一篇并不存在的《华盛顿邮报》文章作为信息来源。
但这一切都是虚构的,特利教授甚至都没有参加过任何前往阿拉斯加的班级旅行。
特利教授之前作为媒体评论员,有时会联系媒体更正错误内容。但这一次,他甚至不知道该联系谁。
不得不说,AI在写“虚构小说”这方面还是有点天赋的。不少人也已经意识到这件事,会在使用AI生成内容后,进行详细核查。不过,要是有人偷了个懒,甚至是别有用心地使用这些虚假信息,带来的恶劣影响有时就难以预估了。
前阵子,北美地区的狮门影视公司发布了自家电影《大都会》(Megalopolis)的最新预告片,预告片中引用了不少针对本片导演弗朗西斯·科波拉的负面评价,作为“当年我拍的片你爱答不理,后来成了经典你高攀不起”的噱头。
但预告片发出后不久,人们就发现,预告片里引用的不少负面评价,竟然是凭空捏造的。
预告片里引用影评人说《教父》“因其艺术性而被削弱”,但那个影评人其实很喜欢《教父》,也没有给出过这样的恶评。| 预告片截图
虽然官方没有就是否使用AI生成文案进行回复,但预告片的内容实在是太像AI生成的了:不仅捏造了很多看起来很真实的虚假信息,还将真实的影评移花接木到其他的电影之中。
在事件发酵后,狮门影视公司立刻撤回了预告片并发布致歉声明,还解雇了营销顾问。
好家伙,AI代替人类工作,原来用的是这种方式啊?
AI胡编乱造的信息不仅会给企业带来损失,在被用心人利用时,还会带来更为广泛的负面影响。
特朗普上个月就在自己的社交网络Truth Social账户上,发布了一则“泰勒斯威夫特的粉丝支持特朗普”的信息,并配上了相关粉丝的照片。
特朗普转发了AI生成的假消息,并附言“我接受(你们的支持)” | x.com
但特朗普引用的大部分照片,都是由一位娱乐博主使用AI生成的,本身是为了进行讽刺。事实上,这位博主直接在图片里加了“SATIRE”标签,意思就是讽刺。
而特朗普无论知不知道这是反讽,行动上都将AI虚构的信息当成“事实”而传播了出去。
AI带来大量的虚假信息正在吞噬社交媒体。排除人类有意创造出的谎言,为什么AI自己也会一本正经地胡扯?这种被称为“AI幻觉”的现象,其实一直都是根植在AI底子里的东西。
这些看似偶然出现的错误,是AI带来的必然结果。
爱也幻觉,不爱也幻觉
AI幻觉这个词就是从人类的“幻觉”定义里衍生出来的,所以它的定义听起来也很好理解:AI 幻觉是AI 模型生成的不正确或具有误导性的结果。
幻觉在近年来受到这么大的关注,主要是因为大型语言模型(LLM)聊天机器人的涌现。
不过在这之前,幻觉已经出现在计算机视觉领域。在那时,幻觉并不是一个很负面的词。
2000年,计算机视觉领域的科学家西蒙·贝克(Simon Baker)与金出武雄(Takeo Kanade)发表了一篇名为“面部幻觉”(Hallucinating faces)的论文,其中提到了通过算法将低分辨率图片中的人脸转化为高分辨率,使得像素增加到16至64倍。而这些额外增加的像素,就是一种“幻觉”,一种由机器学习算法虚构出来的东西。
这其实是一种人为的幻觉,算法试图将一切输入的数据扭曲成人脸,从而完成提升分辨率的任务,这样输出的结果也是使用者希望得到的。
不过,当这种幻觉来到聊天机器人时代,输出的结果变得更加不受控。
2015年,OpenAI的联合创始人安德烈·卡帕斯(Andrej Karpathy)在其博客中,提到了当时训练循环神经网络生成了一些具有幻觉的内容:模型编造了并不存在的网页链接和数学证明,但在输出的结果上看起来可以以假乱真。
2015年时AI制造的代数几何“幻觉”——对不懂代数几何的人来说,这只是又一篇看不懂的天书而已。| karpathy.github.io
2015年还局限于科研圈里的小烦恼,在几年后成长为人类不得不防的大问题。
在图片领域的可以发挥创意改善画质的幻觉,来到对准确度要求更为严格的文字领域,甚至是更为专业的应用领域,造成的影响也随之变大。
除了虚假信息传播带来的问题,AI还可能因为不当的训练数据产生偏见,从而输出带有歧视性内容的信息。
应用于医疗保健方向的人工智能模型,还可能会错误地将良性皮肤病变识别为恶性,从而带来不必要的医疗干预。
看起来,幻觉好像已经成为了AI最大的问题之一。但不少人也认为,幻觉才是AI最大的特点。
有幻觉?这才是AI啊!
试想一下,如果你想问ChatGPT一个问题,为了验证它有没有胡编乱造,你也让AI给出了所有内容的参考来源。
是不是很像在用搜索引擎?
安德烈·卡帕斯在社交网络上表示,大语言模型百分百都是在做梦,存在幻觉问题。搜索引擎则完全不做梦,并且存在创造力问题。(An LLM is 100% dreaming and has the hallucination problem. A search engine is 0% dreaming and has the creativity problem.)
亚利桑那州立大学计算机科学教授苏巴拉奥·坎巴姆帕蒂(Subbarao Kambhampati)也曾表示,大语言模型是为了创造而生的,没有办法保证所生成内容的真实性,所有计算机生成的“创造力在某种程度上都是幻觉”(creativity is hallucination, to some extent)。
这也就意味着,AI本身就不是为了追求准确而设计的,它更像是一种被用来“预测”的工具,通过对数据的学习,来猜测应该输出什么样的结果。AI的“准确”,只是产生的幻觉恰好和真实世界一致罢了。
但也正因为这种类似幻觉的创造力,让AI在非事实的创造性领域显得更有帮助。人们不仅可以用AI生成不存在的物品或想法,还可以让聊天机器人根据一个话题进行发散,这都可能带来意想不到的内容。
但倘若想让它成为一个学术助理,那它最终一定会出现“学术不端”的行为。
AI是个启发者,是个创造者,唯独不会是个“老实人”。
让AI“活在当下”,还真不容易
为了限制AI的幻觉,让AI做的“梦”尽可能贴近现实世界,研究人员们也费尽了心思。
首先要确保训练数据集的质量。生成式AI模型输出的内容很大程度上依赖训练数据集的质量,低质量的数据集可能包含错误标注、缺乏代表性的数据甚至是偏见,这会导致模型预测的结果也与真实情况产生偏差,生成不合逻辑的内容。
因此,确保数据的准确性、完整性和代表性至关重要,高质量的数据集可以帮助模型更好地理解现实世界。
同时还可以引入注意力机制。当AI试图处理输入的内容时,会面对大量信息,但并非所有的信息都同等重要。注意力机制可以让模型为输入的内容分配不同的“权重”,从而更加灵活精准地聚焦于关键信息。
除此之外,还可以使用多种不同的模型进行交叉验证,以检查生成内容的真实性,确保信息在多种形式下都是一致和合理的。
当然,也有一些听起来奇怪的招数,比如说:用大模型监督大模型。今年6月,Nature刊登了来自牛津大学的研究人员的一项新研究,这项研究使用语义熵来检测大语言模型的幻觉。简单点说,就是让一个大语言模型多次回答同一个问题,并使用另一个大语言模型分析这些答案的相似性。除此之外,使用第三个大语言模型接收人类的答案,并与第二个语言模型判断的结果进行比对。
不过这种方法的局限也很明显,它主要针对的是随机生成的错误,无法处理模型因训练数据或系统性错误导致的持续性失误。也就是说,如果AI编的谎言总是同一个,这种方法就会欣然接受,不认为存在什么问题。
实在不行,还有最终的一招:人类监督。
在涉及高风险或敏感领域的应用中,靠人工审核与验证是防止幻觉带来严重问题的最终保障。同时,在AI中引入的人类反馈机制,还可以使模型从反馈中学习,逐步改进生成内容的质量,提高输出结果的准确性。
所有的AI工具都需要在“创造力”与“准确性”之间作出权衡。在如今的AI工具中,也有不少公司提供了不同的选项来约束AI的回答,比如微软的AI助手Copilot就提供了创造力、平衡和精确三种模式,以应对不同的需求。
国际电信联盟还将“可信AI”(Trustworthy AI)作为未来的一项工作不断推进。这意味着不仅要尽可能避免AI幻觉的出现,在隐私、透明性、公平性、安全性等多个方面,都需要对AI进行严格的验证。英伟达(NVIDIA)创始人兼首席执行官黄仁勋也表示,可信性会是英伟达技术的基本属性。
如今,AI已经出现在我们生活的各个方面,幻觉带来的一些影响或许还不算大,甚至可以被当作“AI离谱故事”来对待。但当AI来到更为关键的领域,如何避免幻觉也成为了巨大的挑战之一。
柏拉图在《理想国》里讲过一个着名的“洞穴隐喻”:
有些囚徒从小就被囚禁在洞穴里,他们被锁链束缚,只能面朝洞壁。洞穴外有火光照进来,在墙上投射出外界物体的影子。这些囚徒从小就生活在这样的环境中,他们认为墙上的影子就是真实的世界。
AI不是不像这些囚徒的。
它们此刻还没有真实身体,无法和真实世界直接互动,只能仰赖于人类输入的数据“火光”,去看到一些外界的投影,在梦境里猜想着真实世界的模样。
也许AI会喜欢约翰·列侬的那句歌词:“你可以说我在做梦,但我不是唯一的一个。”
随便看看
- [欧美] Adel A – Presenting Adel [61P]
- [写真] 恰巴耶夫 [20P]
- [写真] 韩国人气模特 孙允珠 高清套图 809 [30P]
- [亚洲] 施工队的故事[60P]
- 上市公司 Thumzup Media Corp 宣布#Bitcoin作为财政
- 【一夜精品】❇️10月第三十季 [刘晓庆婚内出轨 小20
- [BBC 2024-10-23]特朗普身边有了世界首富站台 马斯
- 收集的巨乳动图2[55P]
- [欧美] 孤独[35P]
- [动漫] [涩漫追番] [韩国漫画] 实习老师 74 [35P]
- 道具真家伙一起来 [17P]
- 轻度SM [30P]
- [亚洲] 美女 [30P]
- 女友随便我艹[12P]
- 超漂亮的小美女[10P]
- [欧美] Partar H[20P]
- 个人收集的国内小姐姐精彩瞬间166 [150P]
- [写真] 七七娜娜子 - NO.003 风纪委员 [26P]
- 迷人的嫂子[13P]
- 泼天的富贵
- 5年了,我和比我大20岁的情姐姐,越来越好
- 老百姓开始觉醒了
- 观《说说对公交地铁顶族的看法》有感
- 中国试图借中非合作论坛拉拢非洲国家,尽管债务摩擦犹
- 你能够允许伴侣精神出轨吗?
- pred-234 直播自己电车上被轮奸 告诉全网女记者
- 维舟|当长期信心被摧毁,及时应对风险,趁现在一切还来得
- 87年大叔奔现云南女网友[7P]
- 全国人大代表贾晓亮:建议实行网证、网号{-----千古罪
- [欧美] Winspire[21P]
- 骚气的女人[13P]
- SNIS-381 美丽性感女装设计师 公司同事怎么能放过 [
- [亚洲] 顾欣欣大尺度[23P]
- 挺白嫩的妹子黑森林浓密性感[13P]
- 【一夜精品】❇️11月第二十二季 双马尾清纯小萝莉⚡
- 初夏读书的正确打开方式
- [图文故事] 探花老哥约肏极品美女 为国争光开心大力
- [图说] 一切游戏都是坏游戏 (08.31)