GnDown.Com
分享精品绿色软件

如何看待OpenAI希望利用AI来管理互联网内容?

自从生成式人工智能聊天机器人蓬勃发展以来,越来越多的平台一直在与垃圾邮件和大量文本作斗争。 ChatGPT 开发商 OpenAI 现在希望自行解决这一问题。 基于 GPT-4 语言模型的审核工具旨在使平台的工作更加轻松。

OpenAI 在博客文章中承诺的是更快的帖子处理速度和更一致的指南实施。 可以理解的是,AI 工具基本上可以比人类审核更快地处理大量文本。 但另一个优点应该是符合规则的实施。

因此,GPT-4 在评估内容时更加一致,并且能够更快地实施适应的指南。 对于人类审核来说,调整规则并实施这些更改通常需要数周到数月的时间,而对于人工智能系统来说,这只需要几个小时。 例如,根据 OpenAI 的说法,使用 GPT-4 可以更容易地识别规范中的关键点,以便完善指南。

如何看待OpenAI希望利用AI来管理互联网内容OpenAI

AI 工具也应该是人们的一种解脱。 调节社交网络产生的大量内容被认为是有压力的,而且会让人精神疲惫; 该行业的工作条件也经常受到批评。 顺便说一句,这也适用于那些代表 OpenAI 优化和调整 ChatGPT 输出的人。

作为付费服务的审核 API

可以通过 API 访问 OpenAI 的审核工具。 所以有一点很明确:这是一项付费服务; 显然该公司正在努力拓展业务领域。 收入是必要的,因为春季就已经报道了成本上涨。 据此计算,仅 OpenAI 每天就需要为运行 ChatGPT 所需的基础设施支付约 70 万美元。 根据最近的报道,情况并没有变得更好。

除了成本之外,竞争也在加剧,而之前的炒作(至少在用户层面)似乎有所放缓。 根据分析服务 SimilarWeb 的数据,ChatGPT 7 月份的用户数量下降了 12%。 这将是连续第二个月。 除此之外,还需要 Nvidia GPU,这是训练模型所必需的,但目前很难获得。

用 AI 对抗 AI 文本泛滥

OpenAI 并不是第一家使用语言模型进行审核的公司。 Meta 的人工智能主管 Yann LeCunn 几个月前解释说,这些有助于识别要删除的内容。

当平台使用生成式人工智能工具时,必须考虑其局限性。 OpenAI 本身谈到了在训练或调整语言模型时可能出现的不必要的扭曲。 该公司在博客文章中表示,“与所有人工智能应用程序一样”,结果应该由人类定期检查。 调整也始终是必要的。

这些工具的前景如何还有待观察。一个普遍的问题是,当涉及灰色区域或边界区域的问题时,人工智能系统实际上能够精确地做出决定。

如何看待 OpenAI 希望利用 AI 来管理互联网内容

互联网上存在大量的信息和内容,其中包括不良、有害、误导性或违规的内容。因此,利用 AI 技术来管理互联网内容可以帮助过滤和审查内容,以确保用户获得更安全、准确且有价值的信息。

然而,这个目标也面临一些挑战和争议。首先,AI 技术在理解和解释复杂的语义和文化背景时可能存在局限性,导致误判和过度审查合法内容。其次,决定何为合适的内容可能涉及主观判断,这可能引发对言论自由和信息流动的担忧。此外,依赖于 AI 进行内容管理也可能造成授权和责任的问题。

因此,OpenAI 希望利用 AI 来管理互联网内容的做法需要综合考虑各种因素,包括技术可行性、法律法规、伦理准则以及尊重用户和社会的权益。重要的是要确保 AI 技术的使用是透明和可信的,并且带来积极的影响,而不是阻碍言论自由、创新和开放的互联网环境。

赞(0) 打赏

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续提供更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫

微信扫一扫

登录

找回密码

注册

获取邀请码