侧边栏壁纸
博主头像
硅锗博主等级

纵使改变,依然故我

  • 累计撰写 126 篇文章
  • 累计创建 83 个标签
  • 累计收到 10 条评论

目 录CONTENT

文章目录

关于大火的AIGC,讲点我的看法

硅锗
2023-04-12 / 0 评论 / 0 点赞 / 622 阅读 / 1,700 字

从chatGPT说起

自从chatGPT发布开始,社会上掀起一股AI热潮。我也已经见过了至少三十篇介绍这款产品的文章,发现社会上大量的介绍都是吹捧或者商业性质的。有些自媒体做了寥寥几个问题的评测就把它捧上天,有些危言耸听说谁谁要下岗,有些从业者办的自媒体借此东风开课收钱,实际上讲的东西只能骗骗外行。我觉得我可以写出一点有价值的想法。

大语言模型不是AGI

目前发布的所有GPT(Generative pre-training,生成式预训练)类工具都只是大语言模型,大语言模型的设计思路就是用人类产生的书面文字作为语料库训练深度学习的模型,以期望模型学到人类书面语言的特征。训练完成的模型是由深度学习模型的结构和参数组成的,它的功能是模仿人类输出文字。通俗的说,就是一个模仿人类的聊天机器人。它的成功之处就在于,模仿得比它的竞争对手们强得多。当然,模仿得像不像是一种主观评判,但是当大量的用户都给了五星好评,那么这也是一种没有那么主观的评判了。

这类产品由于对人的书面语言能力模仿得很不错,被很多人认为是一种通用智能,甚至被认为是意识体。我想,这个可以算是一种轻信坑了。人有一种带入角色的能力,被称为“通感”,人们很早就知道人可以和动物,甚至和无生命的山川,河流通感,如今和一个LLM通感,其实并不稀奇。但是我觉得还是很明显的能知道这个LLM并不是意识体,就好像我可以轻易地分辨出山川河流不是意识体一样。

至于通用智能说,OpenAI的研发团队在GPT-4的介绍文章中认为GPT-4在很多任务上"at or beyond human level",是迈向AGI(artificial general intelligence)的重要一步。但是这个结论是使用了夸张的修辞手法。因为整篇文章没有找到human level,也没有用GPT-4的performance和human level去比较。这样比较真的是有点“我爱发明”节目里面的“机器队和人工队比赛”的味儿了。况且,如果目标是AGI,为什么要以人为benchmark呢?人明明就不擅长很多文字的任务,也不是天生就会写字的。就算比,怎么不比一下功耗呢?一个在一般意义上被认为intelligent的人类可以以在学习时间非常短的前提下就以非常低的能量和时间代价,高速完成可靠性极高的大量推理,GPT-4在这方面的能力是远差于人类的。

真的有那么好用吗?

几乎无法使用的场景

chatGPT是openAI部署在云上的,无法部署在用户控制的服务器。对于用户来说,把机密信息作为prompt发给chatGPT是非常不妥的。三星已经发生过一次这样的灾害了。

不那么好用的场景

我还是蛮喜欢玩这些东西的,所以基本上这类工具一出我就马上去玩了。就chatGPT,以及chatGPT 3.5 turbo来说,我发现,这两款产品输出的内容有一种特质:在输出错误答案的时候语气非常自信。换句话说,就是经常胡诌。这样的特质就导致,在一些对正确性要求很高的场景,这类产品完全不能胜任。比如说,数学计算,概念解释,事实信息的查询。

一般好用的场景

其实我的语言能力是很差的。从小就不擅长写作文,我对自己的定位就是一个内向,内心活动丰富但表达能力欠佳的人。在生活中,有些没营养的东西不得不写,这就让我很折磨,往往拖很久都不动笔。在LLM的文字能力如此优秀的今天,我常常使用它们代笔一些车轱辘话。比如说,我需要给乙方写个正式的邮件,那么我只需要列个大纲,写到prompt里,这些LLM就会快速帮我打好草稿。
另外,对于一些编程方面的工作,与其从stackoverflow搬运和测试,不如让chatGPT或者copilot先生成一些东西然后再调试。

特别好用的场景

LLM这类工具其实适合用来打发时间或者“分享”生活中的难题,比如说使用以下prompt:“为什么今天还要上班啊”,看着它生成的内容,就会感到滑稽好笑,心情就轻松了。
对于图像生成来说,也是一样,给喜欢的人做一幅画,几乎0成本就可以得到一些心灵慰藉。

风险

大语言模型是从语料库里学得信息的,和现实世界的物理证据不挂钩。语料库是建模型之前由人力手工清洗的,就会把人的偏见带进去。经过我的实验,ChatGPT就存在宣扬中国威胁论方面的缺陷,不过似乎OpenAI对它做了后置的修正,凡是有一点政治敏感的prompt,OpenAI就一句“无可奉告”。其实很好理解。人说话是要负责任的,这些模型在人类世界既没有权也没有责,但是它们输出的内容会被人解读,所谓“说者无意听者有心”,是有可能有人因LLM输出的内容受到伤害的。一旦发生了和LLM相关的不良事件,责任自然落在开发者那里。开发者又无法真正的理解和控制LLM的输出,只好做一些避让。

几款我用了之后感觉蛮有趣的AIGC软件

  • 写作猫
  • chatGPT
  • new bing
  • 百度文心一言
  • notionAI
0

评论区