Skip to content

为什么要用 ChatGPT

消费信息时不用,生产信息时有用。

跟以前有的界面比呢?

国内很多大型应用,没有直接上与大语言模型直接聊天的功能。多半是它们实测发现,这个聊天窗口,还不如之前的设计呢。

也就是,从效果上说:

text
设计好的浅层UI > 聊天窗口

那么为什么很多人喜欢 ChatGPT,尤其是程序员?你看看程序员以前接触的界面就知道了:

  • 搜索框
  • 文档
  • 应用接口
  • 命令行

从易用性、短期效果来说,这些界面没有一个能打得过 ChatGPT 的。

不知道应用接口、命令行是什么不要紧,只需要知道它不是对人类很友好就行。

如果你用过 Midjourney,那么可以将它的 Prompt 的交互界面认为是一个很好的命令行界面。

但是,重度使用搜索框、文档的用户,其实也算“专业用户”了。

“全语言”翻译官

ChatGPT 不仅能各国语言翻译,还能从中文到编程语言,从数据到图表、甚至各类跟 LLM 沟通的 Prompt —— 它具有一切“表达”能力。

使用 ChatGPT 的人,只要有足够验收能力,各种语言的“表达水平”将在 ChatGPT 之上。也就是说,ChatGPT 的能力就是这群人的“及格线”。

打杂助手小秘书

所谓打杂工作,可能可以说是“转述”工作。或者换些更不好听的词,“搬运”、“洗稿”。

AI 应用,最小原型(MVP)

有人开玩笑说,以往的机器学习“不存在”了。还训练个啥啊,直接调用 ChatGPT 啊。

从成本上考虑,产品试验阶段可以完全不用 AI 训练的研发成本,AI 应用突然就可以经常试错来检验市场,确实非常爽。

但试验成功后呢?比如,网页下载为 Markdown 的需求还可以,甚至网站下载为 Markdown 的需求也不错,但如果按大模型token收费的话,显然是非常昂贵的。那么后续就需要用“传统”机器学习来训练一个专用模型,来大幅度降低成本。

当然,也可以反向,通过手动撸 Parser 做出一个没那么完善的原型,然后通过后面 AI 完善,现在很多 HTML 转 Markdown 的库都是手撸的。这儿还有一个小需求Claude 中文标点救星,有些人用Claude的时候挺需要的,但这个原型很多边界场景没有考虑到。

关于犯错

躺着就不会摔倒;胜率可以 100%,前提是打得少;不做什么事的,才容易全部正确……

这些,说的就是 ChatGPT 之前所有“智能”助手 —— 什么“智能客服”、Siri之类。它们提供方案范围,跟 ChatGPT 相比不值一提。

有的人刚接触 ChatGPT 的时候,很喜欢嘲笑它会犯一些计算、事实记忆方面的错误,甚至开始怀疑它们的价值。

只说一句就够了:人犯的错也不少,人的记忆也不靠谱,ChatGPT 这个角度还真像人。