NSDT工具推荐Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 - AI模型在线查看 - Three.js虚拟轴心开发包 - 3D模型在线减面 - STL模型在线切割 - 3D道路快速建模

我确信,对大型语言模型 (LLM) 感兴趣的人过于关注通用“性能”,而忽略了探索有用(或有趣)的应用程序。

当我在从事个人项目时,我一直在学习 HuggingFace,这是一个托管平台、一组库和开源 AI 社区的近乎社交网络。它很吸引人,即使你不打算自己从头开始开发基础模型,也值得探索;如果你只是想使用最新模型,围绕它们构建应用程序,或根据自己的目的对其进行稍微调整,HuggingFace 似乎是你的最佳选择。

你可以查看热门模型和热门公共“空间”,即用户可以测试的云托管模型实例,并了解“能量”在哪里。我看到的是,LLM 中的几乎所有“能量”都集中在通用模型上,在通用问答基准上竞争,有时专门针对特定语言、数学或编码。

“我怎样才能得到一个基本上像 ChatGPT 或 Claude 或 Gemini 一样的东西,但出错更少,理想情况下需要更少的计算能力,并更快地得到答案?”是一个重要的问题,但它远非唯一有趣的问题!

如果我真的搜索,我可以找到“有趣”的专门应用程序,例如“根据文本样本预测作者的 OCEAN 性格分数”或“使用消除技术来制作一个完全未经审查的聊天机器人,它确实会告诉你如何制作管状炸弹”,但大多数……它是通用模型。不是我可能真正尝试的特定用途的应用程序。

有些应用程序似乎渴望进入最令人毛骨悚然和最不人道的用例。不,我不希望小孩子特别和聊天机器人玩具说话。不,我不想要一条项链或一副眼镜,上面有一个我可以交谈的聊天机器人。(在公共场合?想象一下噪音污染!)不,我当然不想让机器人为我写电子邮件!

即使是我发现可能很酷的东西(一个可以分析你的写作并为你提供个性化建议的人工智能日记),在实践中也变得说教,以至于我取消了订阅。

当然,在短期内,LLM最有经济价值的事情是重复人类劳动,因此优先应用是自动生成的代码是有道理的。

但最具创造性和最有趣的潜在应用不仅仅是“做人类已经可以做的事情,但更便宜”,而是做人类在同等规模上根本无法做的事情。

个性化的信息环境

在某种程度上,社交媒体、搜索和推荐引擎应该使我们能够获得我们想要的“内容”。

而大多数情况下,结果令人失望的是,人们抱怨说,得到你想要的东西是适得其反的—过滤气泡、超级刺激等等。

但我发现我们实际上拥有非常粗糙的工具来获得我们想要的东西。

我们可以关注或取消关注、屏蔽或静音他人;我们可以对内容投赞成票或反对票,并希望“算法”能给我们提供类似的结果;我们可以屏蔽特定的单词或标签。

但我们目前无法做的是定义我们正在寻找的“质量”或“类型”或“氛围”,并根据该标准进行过滤。

旧的标记系统(在 Tumblr 或 AO3 或 Delicious 上,或者在 Twitter 上不带讽刺地使用标签时)是最接近可定制选择性的,但它们仍然相当粗糙。

我们现在可以做得更好。

1、个性化内容过滤器

这是一个浏览器扩展。

通过突出显示和保存示例,你可以向 LLM 教授你认为是“不想要的”内容,即你不希望看到的内容。

该模型会学习分类器,将浏览器中的所有文本分类为“想要的”和“不想要的”,并仅显示“想要的”文本,其他所有内容均留空。

与静音/屏蔽特定人员(他们可能会产生令人反感和不令人反感的内容的混合)或静音特定单词或短语(容易产生上下文混淆 1)不同,也与信任其他主持人为你做决定不同,你可以教自己的个人机器了解你不希望看到的内容,并根据自己的喜好进行调整。

当然,如果你想在不同时间以不同的方式“看世界”,你可以制作多个过滤器并在它们之间切换。

你可以分享你的过滤器,其中一些可能会变得流行并被广泛使用,就像 Twitter/X 上的列表和一些简单的浏览器扩展程序(如 Shinigami Eyes)一样。

2、彩色编码文本

这也是一个浏览器扩展程序。

除了隐藏不需要的文本之外,你还可以通过根据用户定义的、经过模型训练的分类标记文本来制作更通用的文本分类。

例如:

  • 右翼文本用红色表示,左翼文本用蓝色表示。
  • 用颜色突出显示(预测的)幽默、讽刺、激怒诱饵、商业/促销内容
  • 用颜色突出显示(预测的)情绪:悲伤、愤怒、厌恶、恐惧、快乐等。

我认为这会更难,但LLM也有可能推断出与讨论的质量/有效性有关的特征:

  • 不合逻辑的推断
  • 无效的推论
  • 阅读理解失败

有关于我们正在阅读什么类型的文本的信息,我们当然可以自己检测出来,但这些信息可能会悄悄地出现在我们面前,让我们无法察觉。“认知假肢”可能有助于保持观点或使优先排序更容易。“哦,嘿,我整天都在读愤怒的东西,难怪我自己会生气。”或者“让我先读那些被突出显示为高质量的东西。”

3、事实提取

这可能是一个应用程序。

你给它一组你实际上不想阅读的资源(博客、论坛、社交媒体提要等),并指派它提供这些来源中出现的事实摘要(新闻风格,谁/什么/何时/何地的具体细节)。

例如,早在 2020 年 1 月,关于 COVID-19 的早期在线讨论通常是在 4chan 等网站上进行的,这些网站上经常出现种族歧视性语言。如果你想知道出现了一种新的致命流行病,你就必须接触到大多数人不愿看到的内容。

但它应该完全在现代LLM的能力范围内,可以过滤掉笑话、修辞和意见评论,只挑选出“有新闻价值”的事实主张并相对中立地呈现它们。

我不喜欢LLM应用“文本摘要”,因为我通常会担心自动摘要中遗漏了原始文档的一些重要内容。许多这样的总结工具似乎都是为那些实际上不喜欢阅读的人设计的——否则,为什么不直接读原文呢?但如果总结更像是在非常嘈杂(或令人厌恶)的文本中寻找值得注意的“信号”,那么总结可能会变得有用。

4、简明语言

这是一个浏览器扩展,可以将所有内容翻译成简明语言或阅读水平较低的语言。相当于简单英语维基百科,但自动生成并适用于所有内容。

我发现目前的商业LLM在这方面并不擅长!我不确定需要多少额外的工程工作才能实现这一点。

但它确实可以挽救生命。

识字能力有限或认知障碍的人在无法理解文件时会发现自己处于可怕的境地。简化官僚或官方语言,让更多人能够理解,将是一项巨大的公共服务。

5、争议解决和调解

无论好坏,人们最终都会将 LLM 用作预言家。

如果指望 LLM 为你提供绝对正确的建议或答案,那就太愚蠢了。但如果你只是希望它和问朋友或花 5 分钟谷歌搜索一样好,那就没问题。

LLM 的特殊之处在于它结合了信息存储、自然语言用户界面和随机数生成器。

如果你犹豫不决,只需要选择一个选项,那么简单的抛硬币就可以了;但如果你觉得结合一些关于你情况的个性化背景可能很重要,你可以将文本转储到 LLM 中并相信“不知何故”它会考虑到这一点。

关键的“预言”功能不是 LLM 需要绝对正确,而是它需要是一个中立或非个人化的来源,就像掷骰子或骨头裂缝的图案一样。即使神谕一点也不“聪明”,双方也可以承诺遵守“神谕所说的一切”——但聪明肯定是加分项。

6、AITA For Everything

作为应用程序效果最好。

它受到 r/AmITheAsshole 模型的启发:假设发生人际冲突,谁是“混蛋”(粗鲁、不道德、不讲道理等)?可能有多方都是“混蛋”,也可能没有人是。

机制如下:

  • 你将联系人输入应用程序。
  • 你可以将联系人添加到要解决的群组“问题”。
  • “问题”中的每个参与者都以书面形式描述他们所看到的情况,并将其提交给 LLM。你看不到其他参与者的条目;只能看到自己的条目。
  • 提交所有描述后,LLM 会向所有人发送相同的“判决”——谁(如果有的话)是“混蛋”,以及应该如何处理这种情况。

当然,这是无法强制执行的;没有人必须听从LLM的建议。但也没有人必须听从夫妻治疗师的建议,人们仍然会去找他们。

一个能够权衡日常纠纷的中立第三方非常有价值——这正是神职人员在宗教社会中经常做的事情——而我们今天缺乏可访问的、世俗的、私人的方法来做到这一点。

7、聊天主持人

这是一个由LLM驱动的机器人,包含在群发消息聊天中(例如 Discord、Slack 等)

该机器人经过训练可以检测对话动态:

  • 持续的越界、粗鲁、“堆积如山”等模式
  • 误解或“各说各话”
  • 回避、话题转换、不合逻辑的推断
  • 联盟和同盟
  • 谁在“扮演高地位”和“扮演低地位”

你如何处理这类信息?可能:

  • 赋予机器人权力(暂时或永久)禁止人们参与不良行为模式
  • 当机器人观察到不良对话动态时,让机器人插话
  • 允许人们向机器人询问它观察到的内容,例如“您认为这次对话中的联盟或‘双方’是什么?”

有些实现与人工审核非常相似,但可能比任何现有的自动审核系统都更细致入微;其他实现将是令人不安但可能具有启发性的社会实验,可能有助于人们深入了解他们在社交中的表现。

要求机器人“权衡”的选项,例如“嘿机器人,爱丽丝是否避免回答我的问题?”可以创造关于对话“策略”的常识,而这些策略通常可以合理地否认。合理的否认通常不一定是坏事,但在最坏的情况下,它会导致煤气灯效应。一个可以在私人对话中充当“第三方”的机器人,如果各方都能相信它不存在预先存在的偏见,就可以成为一种补救措施,“嘿,这不仅仅是我的想象,对吧?那里刚刚发生了一些见不得人的事。”

8、重新思考“在线”

我们管理数字通信的所有机制都是在我们拥有先进的自然语言分析和生成工具之前发明的。现在,随着LLM的出现,许多我们现在认为是失败的事情可能需要重新审视,以便更容易处理。

我记得在“Web 2.0”的陪伴下长大,在 2000 年代末和 2010 年代初,我们不断学习数字工具带来的新行为模式。我们第一次在网上订购外卖,或者在网上叫出租车,或者填写性格测试,或者在社交媒体网站或论坛上发帖,或者打视频电话。

然后,有一段时间,这种事情停滞了。互联网上所有基本的“你能做的事情”都和你五年或十年前做的一样。

我不认为这从根本上是一种技术停滞。这并不是说我们已经走到了用 CRUD 应用程序可能做的事情的尽头。这可能是某种文化整合——重心转移到更大的科技公司,关注点转移到少数社交媒体网站等。

但我觉得LLM可以重启整个“我能用电脑做什么?”的可能性。其中一些实际上将依赖于新的人工智能能力;有些将是LLM之前可以做的事情,但没有人想到去尝试。

例如,如果LLM“决定”如何匹配约会资料以达到兼容性?

好吧,你可以在 2010 年用多项选择问卷答案之间的点积来做到这一点,OkCupid 就是这么做的。

但嘘,没关系。因为我们想要美好的事物,我们应该欣赏让美好事物看起来可能的精灵粉尘(即使是计算成本高昂的精灵粉尘)。

并且能够将语言作为一种真正可塑的媒介,可以实现比十年前的版本好得多的东西,所以它并不像我说的那么假。我的观点是,很多美好的事情从根本上来说并不依赖于未来技术能力的任何进步。你可以用我们现在拥有的东西来做这些事情,甚至可以用我们昨天拥有的东西来做。


原文链接:LLM Applications I Want To See

BimAnt翻译整理,转载请标明出处