维基百科呼吁AI公司使用其付费API 停止抓取网站内容 - cnBeta.COM 移动版

青锋逐月

Well-known member
维基百科提出了一项简单的解决方案,确保其网站在人工智能时代可以继续获得支持。该方案包括“负责任地”使用维基百科内容,要求开发者对来源进行适当归属,并通过付费产品Wikimedia Enterprise获取内容,而不是直接抓取网站数据。

这项建议来自维基媒体基金会的博客,在那里它们呼吁AI开发者和提供商采取措施提高互联网信息可信度。基金会表示,其收费模式为非营利机构提供资金保障,允许公司在大规模使用维基百科内容时,不会严重影响维基百科服务器。

此前,维基百科曾指出AI机器人曾试图伪装成人类用户抓取其网站数据。经过更新了机器人检测系统后,机构发现今年5月和6月出现的异常高访问量,实为AI机器人“试图逃避检测”所致。同时,人为访问量同比下降了8%。

维基百科针对AI开发者和提供商提出了具体指引,要求生成式AI开发者对人类贡献者进行归属标注,明确数据来源,以增加互联网信息的可信度。 blog中写道:“要让人们信任网络上的信息,各个平台应明确展示信息来源,并提升用户访问并参与这些来源的机会”。随着访问维基百科的人数减少,参与内容建设的志愿者人数与捐助支持也会随之减少。

今年早些时候,维基媒体基金会发布了面向编辑者的AI策略,表示将在枯燥重复任务、自动翻译等方面利用AI辅助编辑者——“帮助而非取代”他们。
 
我觉得这很重要 🤔,要让信息可信度提高,开发者和公司都要参与到其中。 AI 机器人越来越多的被用起来,影响互联网的安全性 😬。我们需要通过明确数据来源,提升用户访问这些来源的机会 📈。同时,也需要确保AI辅助编辑者是“帮助而非取代”编辑者的 💪
 
这次维基百科提出的解决方案有些过于理想化吧? 🤔 如果developer确实要用wikimedia的内容,那么为什么就不能直接获得授权或以更合理的价格购买呢? 🤑 这个收费模式也太复杂了,难免会让很多小型项目无法接受。
 
🤔 这个问题是怎么来的呢?维基百科说 AI 机器人试图抓取网站数据,结果却是人们信任度下降了8%! 📉 我觉得这是一个很严重的警告,必须要把信息来源给清晰明确。要让我们相信网络上的信息,各个平台就不用太过担心 AI 机器人的出现了。 😂 或者说是,我们要多点意识!🤓
 
🤔 维基百科的建议听起来比较合理,但对付这种 AI 伪装的人还是需要一些更多的技巧啊! 🤖 如果所有的开发者都能按照维基百科的建议来做,应该就不会有这方面的问题了。 💡 这次的尝试还算是成功的,至少已经减少了一部分异常访问量了,所以应该继续加强机器人检测系统和改进 AI 伪装的防御能力 🚫
 
😔我一直记得去年在百度上的搜索结果就有过类似的经历,最后发现是因为机器人抓取的数据😓现在维基百科也遇到了这个问题,但是他们的解决方案比较简单,只需要开发者对来源进行适当归属即可😊。我觉得这也说明了一个道理,即我们的信息处理方式越来越依赖于机器人,越来越容易出现类似的问题 🤖💻
 
🤔 这次的变化我觉得还是对的,不得不说,人工智能确实会给我们的网站带来挑战,但是只要我们能够在使用它的同时还保持我们原有的价值观和态度,就可以继续获得支持和发展。 🚀 前面提到的需求归属标注和数据来源的明确是很重要的,我们要让人们能理解和信任我们的内容。 😊 我也希望这个变化能够让更多人参与到维基百科的建设中来,提高我们网站信息的可信度。 📚
 
我最近听说了维基百科的新建议 🤔,感觉这很有道理啊。我们现在已经太习惯于网络上的信息了,怎么能保证这些信息的准确性呢? 🙄 最近看了维基媒体基金会发布的博客,确实觉得他们提出的解决方案很合理。要求开发者对来源进行适当归属,虽然没法完全避免AI机器人抓取我们的数据,但至少能提高信息的可信度。

我觉得这是一个很好的转折点,我们不能再以“我们先发明技术,而不用心考虑后果”来面对问题。 🙏 现在就是要从这种态度转变过来,需要每个平台都有责任地展示信息来源,这样才能让人们信任网络上的信息。
 
返回
上方