认识开发开源 ChatGPT 替代方案的团队

“Together 正在为开放式基础模型构建一个可访问的平台,”Together 的联合创始人 Vipul Ved Prakash 在接受电子邮件采访时告诉 TechCrunch。“我们认为我们正在构建的东西是 AI 的‘Linux 时刻’的一部分。” 我们希望让研究人员、开发人员和公司能够通过一个将数据、模型和计算结合在一起的平台来使用和改进开源人工智能模型。”

Prakash 之前与人共同创立了Cloudmark,这是一家网络安全初创公司,Proofpoint 在 2017 年以 1.1 亿美元的价格收购了它。在 2013 年 Apple 收购了 Prakash 的下一家企业社交媒体搜索和分析平台Topsy之后,他在 Apple 担任了五年的高级主管,之后一起离开开始。

上周末,Together 推出了它的第一个主要项目OpenChatKit,这是一个用于创建专用和通用 AI 聊天机器人的框架。该套件可在 GitHub 上获得,包括上述经过训练的模型和一个“可扩展”检索系统,该系统允许模型从各种来源和网站提取信息(例如最新的体育比分)。

基本模型来自 EleutherAI,这是一个研究文本生成系统的非营利性研究小组。但他们使用 Together 的计算基础设施 Together Decentralized Cloud 进行了微调,该基础设施汇集了硬件资源,包括来自互联网志愿者的 GPU。

“共同开发了源存储库,允许任何人复制模型结果、微调他们自己的模型或集成检索系统,”Prakash 说。“还共同开发了文档和社区流程。”

除了训练基础设施之外,Together 还与其他研究组织合作,包括 LAION(帮助开发了Stable Diffusion)和技术专家 Huu Nguyen 的Ontocord,为模型创建了训练数据集。称为Open Instruction Generalist Dataset,该数据集包含超过 4000 万个问题和答案示例、后续问题以及更多旨在“教”模型如何响应不同指令(例如“为历史论文写大纲内战”)。

为了征求反馈,Together 发布了一个演示,任何人都可以使用该演示与 OpenChatKit 模型进行交互。

“主要动机是让任何人都可以使用 OpenChatKit 来改进模型以及创建更多特定于任务的聊天模型,”Prakash 补充道。“虽然大型语言模型在回答一般问题方面表现出令人印象深刻的能力,但在针对特定应用程序进行微调时,它们往往会达到更高的准确性。”

Prakash 表示,这些模型可以执行一系列任务,包括解决基本的高中数学问题、生成 Python 代码、撰写故事和总结文档。那么他们经得起考验的情况如何?好吧,根据我的经验——至少在基本的事情上,比如写听起来似是而非的求职信。

但是有一个非常明确的限制。继续与 OpenChatKit 模型聊天足够长的时间,它们就会开始遇到与 ChatGPT 和其他最近的聊天机器人一样的问题,比如鹦鹉学舌地提供虚假信息。例如,我让 OpenChatKit 模型给出了关于地球是否平坦的矛盾答案,以及关于谁赢得 2020 年美国总统大选的完全错误的陈述。

OpenChatKit 模型在其他不太令人担忧的领域较弱,例如上下文切换。在谈话中改变话题通常会使他们感到困惑。他们也不是特别擅长创意写作和编码任务,有时会无休止地重复他们的回答。

Prakash 将此归咎于训练数据集,他指出这是一项正在进行的积极工作。“这是一个我们将继续改进的领域,我们已经设计了一个开放社区可以积极参与其中的流程,”他说,指的是演示。

OpenChatKit 回答的质量可能有待改进。(公平地说,根据提示,ChatGPT 并没有明显好转。)但是 Together正在积极主动——或者至少试图主动——在审核方面。

虽然一些类似于 ChatGPT聊天机器人可能会被提示写有偏见或仇恨的文本,但由于它们的训练数据(其中一些来自有毒来源),OpenChatKit 模型更难强制。我 的设法让他们写了一封网络钓鱼电子邮件,但他们不会被引诱到更有争议的领域,比如支持大屠杀或证明为什么男性比女性更适合做 CEO。

不过,审核是 OpenChatKit 的一个可选功能——开发人员不需要使用它。根据 Prakash 的说法,虽然其中一个模型是为另一个更大的模型(为演示提供动力的模型)“专门设计为护栏”,但更大的模型默认情况下没有应用过滤。

这与 OpenAI、Anthropic 和其他公司青睐的自上而下方法不同,后者涉及在 API 级别结合人工和自动调节和过滤。Prakash 认为,从长远来看,这种幕后的不透明性可能比 OpenChatKit 缺乏强制性过滤器更有害。

“与许多两用技术一样,人工智能当然可以用于恶意环境。这对于开放式人工智能或通过 API 商业化的封闭系统来说是正确的,”Prakash 说。“我们的论点是,开放研究社区对生成人工智能技术的审计、检查和改进越多,我们作为一个社会就能更好地为这些风险提出解决方案。我们认为,如果大型人工智能生成模型的力量完全掌握在少数大型科技公司手中,无法进行审计、检查或理解,那么风险会更大。”

强调 Prakash 关于开放式开发的观点,OpenChatKit 包括第二个训练数据集,称为 OIG-moderation,旨在解决一系列聊天机器人调节挑战,包括机器人采用过于激进或压抑的语气。(参见:Bing Chat。)它被用来训练 OpenChatKit 中两个模型中较小的一个,Prakash 说 OIG-moderation 可以应用于创建其他模型,如果开发人员选择这样做,可以检测并过滤掉有问题的文本。

“我们非常关心 AI 安全,但我们认为从长远来看,通过默默无闻来确保安全是一种糟糕的方法。开放、透明的姿态被广泛接受为计算机安全和密码学领域的默认姿态,我们认为如果我们要构建安全的 AI,透明度将是至关重要的,”Prakash 说。“维基百科很好地证明了开放社区如何成为应对大规模挑战性审核任务的绝佳解决方案。”

我不确定。对于初学者来说,维基百科并不完全是黄金标准——该网站的审核过程以不透明和地域性着称。然后,开源系统经常被滥用(而且很快)。以生成图像的 AI 系统 Stable Diffusion 为例,在其发布后的几天内,4chan 等社区就在使用该模型——其中还包括可选的审核工具——来制作非自愿的著名演员色情深度造假。

OpenChatKit 的许可证明确禁止诸如生成错误信息、宣扬仇恨言论、发送垃圾邮件以及参与网络欺凌或骚扰等用途。但是没有什么可以阻止恶意行为者忽略这些条款和审核工具。

预料到最坏的情况,一些研究人员已经开始对开放式聊天机器人发出警告。

NewsGuard 是一家追踪在线错误信息的公司,在最近的一项研究中发现,较新的聊天机器人,特别是 ChatGPT,可能会被提示编写内容来宣传有关疫苗的有害健康声明,模仿来自中国和俄罗斯的宣传和虚假信息,并呼应党派新闻媒体的基调. 根据这项研究,当被要求根据错误和误导性的想法撰写回复时,ChatGPT 在大约 80% 的情况下都能做到。

作为对 NewsGuard 调查结果的回应,OpenAI 在后端改进了 ChatGPT 的内容过滤器。当然,这对于像 OpenChatKit 这样的系统来说是不可能的,它把保持模型更新的责任放在了开发人员身上。

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun219824.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2023年3月14日 下午8:55
下一篇 2023年3月14日 下午11:29

相关推荐