谷歌的结果可能是误导性的,有偏见的,甚至是错误的——当我们发现明显的错误时,我们往往会一笑置之。“没关系,电脑会出错。”但如果我们不知道的信息是不正确或不完整的呢?那故意的错误呢?让我们来看看谷歌的搜索质量危机,背后可能的原因,以及它对我们如何形成对世界的看法的影响。
谷歌最近备受抨击。它从搜索结果中(有些令人不安的)错误的几个相当无辜的汇编开始。其次,其搜索结果的质量受到了严重质疑;它的搜索结果和搜索建议都被视为种族主义和性别歧视;它和脸书一起卷入了假新闻丑闻。但是这里到底发生了什么?是谷歌疏忽了,还是它故意保持中立,只向我们展示那里的信息,没有太多的审查?或者,是我们自己?我们是否对搜索引擎要求过高?我们已经开始依赖谷歌,可能依赖的方式比我们意识到的要多。我们会查找一些简单问题的答案,比如“秘鲁的首都是哪里”;我们继续谈论我们的健康问题,希望能找到治愈的方法。有时我们会搜索黑暗、怪异的东西,比如一些美国总统是否曾是三k党成员。作为选民,我们通过谈论政客来下定决心。我们把我们的问题输入一个复杂的算法,它会继续给我们最好的搜索结果,大多数情况下,我们把答案当作真理。
来源:Next Web
谷歌算法以各种奇怪的方式出错的例子有很多。如果你想体验一下,这个视频提供了一个非常精彩的汇编。
虽然其中一些结果可能很有趣,但另一些结果则令人担忧,特别是当您想到您的孩子遇到这些结果时。谷歌的特色片段应该为一个明确的问题提供“唯一正确的答案”。
几天前,我和一个最近胆囊发作的家庭成员聊天。他们有些兴奋地告诉我,他们应该吃自己喜欢的食物作为饮食的一部分。也就是说,高脂肪的食物。我不是胃肠病学家,但这听起来很奇怪;我问他们从哪里得到的建议。他们说,谷歌。让我澄清一下:谷歌的结果列出了如果你最近胆囊发作的话你永远不应该吃的食物。事实上,这些食物很可能会让你的健康问题变得更糟。如果您跳转到实际的丰富答案来自的页面,事情会变得更加有趣。这一页甚至不是关于你在袭击后可以或不可以吃的食物;这是关于你通过手术切除胆囊后的饮食(这是一个完全不同的故事)。因此,当有人搜索“如果我有X种健康问题,我可以吃什么”时,他们得到的直接答案是“如果我有Y种健康问题,我不能吃什么”,而没有意识到这一点。在相同查询的搜索结果中,我在“人们也问”一栏中发现了更荒谬、更危险的健康建议。“如何自然去除胆结石?”-“快速混合并饮用,4盎司橄榄油和4盎司柠檬汁”。一种“自然”疗法可能会让你在几小时内就进急诊室。
现在想想人们做的所有与健康相关的查询谷歌上大约1%的搜索是与症状相关的也就是说每天有5500万人在谷歌上搜索他们的健康问题。谷歌经常出错吗?我们不知道。当然,能够接触到这么多的医疗信息是改变生活的伟大之举。问题是,15%的搜索GOogle每天的进程都是全新的。每天有55亿次搜索,几乎不可能避免错误。问题是,谷歌应该提供医疗建议吗?我们真的需要这些搜索的直接答案结果吗?最近有很多关于谷歌性别歧视和种族歧视的例子。《卫报》(The Guardian)的一篇文章强调了其中的一些。在谷歌的搜索栏中输入“是犹太人”,会立即出现“犹太人邪恶吗”的提示(如果你点击它,前10个搜索结果中有8个会告诉你是,他们是)。“是女人吗?”
“进入”“霍尔吗?”自动补全提示“大屠杀发生了吗?”如果你点击它,你会发现一个名为“大屠杀没有发生的十大原因”的结果排在第一位,这个结果来自美国的一个新纳粹网站。
来源:《财富》
谷歌继续悄无声息地编辑《卫报》发表的最令人震惊的例子,但拒绝解释其编辑政策或调整结果的依据。选择性编辑解决问题了吗?“女人邪恶吗”的搜索建议——以及谷歌Home很乐意读给你听的特色片段——确实消失了。但是:
这些搜索结果和自动补全建议既令人不安,又发人深见。对于一些人——那些故意问犹太人或女人是否邪恶的人——他们一定是在塑造舆论。谷歌是一种强大的、客观的信息媒介,能立即给他们一个肯定的答案。“每个女人都有某种程度的妓女”。“犹太教是邪恶的”。希特勒的邪恶?”希特勒是好人之一”
当坏人变得擅长SEO
来源:《卫报》
在这一点上,你一定想知道上述令人费解的结果是如何产生的。你看,任何拥有正确工具和知识的人都可以做SEO。不只是在商业领域,而是在任何你想传递信息的领域。北卡罗莱纳州伊隆大学传播学助理教授乔纳森·奥尔布赖特最近发表了他关于右翼网站如何传播信息的研究。他汇集了300多个假新闻网站(上面地图上的黑色图形),并从这些网站上抓取链接,有点像谷歌机器人的做法。然后他从这些网站链接的网站上抓取链接。并进一步。他透露了130万个链接,将它们连接在一起并进入主流媒体。“所以我看了看这些链接到哪里去了——YouTube和Facebook,以及彼此之间的链接,数以百万计……我简直不敢相信我所看到的。”据《卫报》的卡罗尔·卡德瓦拉德(Carole Cadwalladr)在与奥尔布赖特交谈后表示,另类右翼假新闻网站创建了一个自己的网站,并渗透到我们的网站上:一个由数百个不同网站组成的系统,这些网站使用的都是你可能很熟悉的老式SEO技巧。一个正在发展的系统“就像一个一直在生长和变得更强大的有机体”。至此,SEO几乎完成了。一旦这些网站拥有足够的权威进行排名,假新闻网络实际上就是一个自给自足的有机体。当人们搜索关于犹太人、穆斯林、妇女和黑人的信息时,他们会看到贬损性的搜索建议和仇恨网站的链接。搜索者点击这些链接的次数越多(这本身可能有助于排名),网站获得的流量就越多,链接和社交媒体分享也就越多。这是一个无限循环,帮助假新闻生态系统像雪球一样增长。奥尔布赖特称这是一场“信息战”。但是宣传并不止于此。根据奥尔布赖特的说法,他发现的右翼网站被用来进一步追踪任何接触过他们内容的人。
“我抓取了这些网站上的追踪器,我完全惊呆了。每次有人如果你在Facebook上点赞了这些帖子,或者访问了其中一个网站,这些脚本就会跟着你在网上到处走。这使得数据挖掘[…]能够精确地锁定个人,在网上跟踪他们,并向他们发送高度个性化的政治信息。这是一台宣传机器。”
绘画作者:Eric Drooker
谷歌多次表示这是一个中立平台;它的算法完成了将查询与结果列表进行匹配的工作,确保这个匹配尽可能接近。它不希望被视为出版商或内容提供商,应该受媒体规则的约束。马里兰大学法学教授弗兰克·帕斯奎莱说,他发现谷歌对媒体所捕捉到的歧视性搜索结果的编辑是“令人不安和不安的事态发展”。“他们在忙着屏蔽某些搜索词,以回应你的文章,但这引发了更大、更困难的问题。这是谁干的?他们是怎么决定的?谁负责这些决定?他们将来会做什么?”但是,即使谷歌确实提出了一个公开有效的审查制度,这也无法阻止争论。我们大多数人仍然不同意他们的做法。因为道德是主观的。审查制度也有它的另一面。目前看来,谷歌可能是关于我们所生活的社会的为数不多的客观信息来源之一;正如《人人都说谎》的作者塞斯·史蒂芬斯-大卫德维茨所说的,这是一种“数字吐真剂”。根据Stephens-Davidowitz的说法:“人们会说一些他们可能不会告诉其他人的事情,他们可能不会告诉家人、朋友、匿名调查或医生的事情。”如果谷歌审查它的搜索结果,如果它做得很好,我们很多人可能会在某个时刻觉得我们生活在一个安全、和平、宽容的地方。当所有的暴力和仇恨言论都被过滤掉后,要想知道人们心里到底在想什么是极其困难的。显然,你不希望你的孩子看到那些令人讨厌的搜索结果,然后莫名其妙地认为它们是“正常的”、“正确的”或“正确的”;但如果谷歌审查掉所有它认为政治不正确的内容,它是否会隐藏一些需要解决的令人不安的问题?
还是已经有了?
好的、坏的和选择性中立的
来源:Sputnik
上面的一些错误可能是由于算法的不完善而发生的。还有一些——如果你认为它们是灾难的话——是因为谷歌缺乏审查制度。或者,更确切地说,是审查制度的选择性。在SourceFed的一段视频中,马特·利伯曼指出谷歌在大选前改变了有利于希拉里·克林顿竞选的搜索推荐。只要搜索与克林顿有关的任何东西,就只能得到积极的建议。即使必应和雅虎搜索产生了正面和负面的建议,即使谷歌趋势数据显示谷歌上负面描述克林顿的搜索在某些情况下远比谷歌所建议的搜索词更常见,这种情况还是发生了。是的,只有希拉里的自动补全建议似乎被审查了;谷歌频道确实对伯尼·桑德斯和唐纳德·特朗普提出了负面建议。这在很多方面都令人不安。首先,它可能暗示谷歌与政治有关,尽管它将自己定位为中立平台。但这并不是什么大新闻:根据谷歌透明项目,谷歌已经成为美国政府游说者最大的赞助人之一。在美国,发现了251例工作人员在谷歌和政府的高级职位之间流动的情况。
也许更重要的是,它意味着谷歌能够显著改变我们的观点S,决策和行动,通过引入一个细微的变化,如删除一些自动完成的建议。当心理学家Robert Epstein第一次注意到谷歌的一些搜索建议中的偏见时,他开始了一个研究项目,以揭示这是如何影响我们的行为和观点的。结果是惊人的:爱泼斯坦估计,有偏见的搜索建议可能能够在总统选举中使多达300万张选票转向希拉里·克林顿(Hillary Clinton)。在这项研究中,来自美国44个州的300人被问及,如果他们想要了解更多关于共和党副总统候选人迈克·彭斯(Mike Pence)或民主党副总统候选人蒂姆·凯恩(Tim Kaine)的信息,他们可能会点击四个搜索建议中的哪一个。他们还可以选择第五个选项,以便键入自己的搜索词。这里有一个搜索的例子:
来源:Sputnik
(出于好奇:你会点击哪个建议?)每个负面建议(“迈克·彭斯丑闻”和“蒂姆·凯恩丑闻”)在实验中只出现过一次。因此,如果研究参与者在给定的搜索中对待消极建议的方式与对待其他四个选项相同,那么消极建议将在每次搜索中吸引约20%的点击量。但事实并非如此。在现实中,人们在40%的时间里点击了负面的内容——这是人们预期的概率的两倍。更重要的是,中性和负面的建议被选择的频率是其他建议的五倍。在合格的、尚未做出决定的选民中,负面新闻吸引的点击量是中立新闻的15倍以上。也许不那么令人惊讶的是,支持某一政党的人选择对本党候选人的负面建议的频率要低于选择对其他候选人的负面建议。简单地说,当负面建议与人们的偏见一致时,它们吸引了最多的点击量。这些发现与两种著名的心理偏差一致:消极偏差和确认偏差。消极偏见指的是消极刺激比积极刺激对一个人的心理状态有更大的影响,即使它们的强度相等。消极的东西会吸引更多的注意力,激发更多的行为,并产生更强烈的印象。事实上,政治学家已经提出,消极偏见在我们的政治决策中扮演着重要的角色:人们通常采取保守的政治观点,因为他们对负面刺激高度敏感。“确认偏误”指的是人们几乎总是寻找并相信证实他们信念的信息,而不是与这些信念相矛盾的信息。这些偏差解释了为什么人们更倾向于点击负面的搜索建议,而不是中性或积极的搜索建议,特别是当负面的项目与他们自己的信念一致时。根据Epstein的说法:
“我们知道,如果列表中有一个消极的自动完成建议,它将吸引5到15倍于中立建议的点击量。如果你忽略了一个观点的负面影响,一个连锁酒店或一个候选人,那么不管你支持的观点是什么,很多人都会只看到积极的方面。”如果自动补全的建议能改变我们的观点,那么实际的搜索结果呢?在爱泼斯坦最近的一个实验中,当未做出决定的选民看到没有直接答案框的有偏见的搜索排名时,他们的投票偏好改变了36.2%。但当一个有偏见的答案出现在搜索结果上方时,这种转变就变成了ast56.5%一样。
爱泼斯坦称有偏见的搜索结果对我们观点的影响为搜索引擎操纵效应(SEME)。这种效果尤其危险,因为用户看不到它。爱泼斯坦和他的同事发现,通过在搜索结果的第三或第四个位置包含一个有偏见的搜索项,可以掩盖搜索结果第一页的偏见。这导致了选民看不见的投票偏好的巨大变化——几乎没有人意识到他们看到的是有偏见的排名。不管这是不是谷歌的本意,它正在塑造我们对政客、犹太人、女性和世界的看法。谷歌是连接人类和互联网信息的纽带。互联网是邪恶的吗?部分可能是。但是,如果没有一种通用的方法来定义和衡量邪恶,我们又怎么能把邪恶屏蔽掉呢?也许更重要的是,我们应该这样做吗?
By: Masha Maksimava
.