这段时间我也在学习ChatGPT、阅读GPT-3、ChatGPT、PPO这些Open AI发表的论文Paper。
有一些好的文章我也收集了起来,现在分享给大家,方便大家也学习ChatGPT。
(1)ChatGPT真正落地的技术英雄
自媒体吹马斯克吹阿尔特曼,他们其实本质都是宣传人,真正落地其实是咱们的老熟人:他就是2012年跟着辛顿教授刷榜的那个学生。就是因为辛顿团队刷榜,才让业界终于相信:暴力美学是有作用的。
其实辛顿的方法在90年代就发明出来了,但业界都不信这个方法有用。
幸亏李飞飞教授在谷歌的支持下,创建了一个1000万张海量图片、人工标注的数据集,才有了后续的辛顿团队的暴力美学成功。
这次辛顿的学生又在暴力美学的基础上加上人工精修,让效果更好,一下子就爆圈了。
所以,第三次人工智能热潮,我个人总结:
Transformer统一标准砖块
海量数据-暴力美学预训练
人工精修
你只有知道具体技术负责人是怎么来的,你才会知道他未来会怎么想。所以GPT未来会如何发展,怎么解决现有的种种问题,其实从关键人物的经历就可以一窥蛛丝马迹。这是我推荐这篇文章的价值。至于说看个人传奇故事,那完全没有必要,毫无价值,即使再激荡起伏,那和我们没有半毛钱关系。
《ChatGPT背后真正的英雄:OpenAI首席科学家Ilya Sutskever》
(2)搜索和ChatGPT之间的关系
哔哔侠们说ChatGPT要灭掉搜索呀,谷歌和百度如果赶不上这趟就要死了。类似这种标题的自媒体文章我是从来连正眼都不会去瞧的。
不过搜索引擎尤其是专用的知识搜索引擎的发明人却写了一篇文章来剖析
咱们都是研究-研发人啊,要看些研发人该看该讨论的东西啊,别整天看那些没用的。
(3)逐块拆解ChatGPT的来龙
大家看到的ChatGPT都是个带UI界面的应用,但这应用背后是怎么构建成的,我收集了一篇文章,是Allen研究院的研究员写的。Allen Labs也是著名的人工智能研究实验室,所以算是真正的行内人写的。
我就喜欢这样学习,学啥,就学那个发明人写的东西。我不太喜欢看从入门到进阶这种东西,比如我想了解资本主义和社会主义,我就是直接看《资本论》,而不是东看西看,那样容易走歪路了。一开始当然是看不懂,但就是一遍遍地看一遍遍写思考笔记,但一旦看懂了就全通了。
如果大家对这篇文章里的一些专业术语到底是啥意思也不懂,我建议你先阅读一下我收藏的这篇文章:《ChatGPT 背后的技术重点:RLHF、IFT、CoT、红蓝对抗》
(4)ChatGPT未来走向:知识推理
上一节咱们介绍了ChatGPT的过去来龙,那ChatGPT的去脉是什么呢?
ChatGPT其实是个语言模型,但是大家现在都把它当作知识模型在用。以为你问它、它能回答你,就以为它是个知识丰富的电脑。其实这完全是不对的。
所以,如何把语言模型和知识模型进行融合,这可能是ChatGPT未来要演进的方向。
为了让大家能够了解ChatGPT未来会怎么走,建议大家先理解理解语言模型推理,它是从语言模型走向知识模型的一个中间。语言模型我们知道很多,知识模型我们也知道很多,但从语言模型如何融合知识模型,很多人不知道,所以我给大家推荐这篇:《Language Model Reasoning》
(5)ChatGPT的现在:问题
过去我们也知道了,未来发展方向也大致了解了,但从过去到现在到未来,这条路径中到底有多少坑,目前看上去很美的ChatGPT到底还有哪些尚待快速迭代后续几个小版本中需要解决的问题呢?
俊林写得蛮好的,而且俊林在今年1月份就写了文章。俊林也是人工智能业内人士,而且也是工程实践人士不是研究人士,所以俊林从人工智能专业实践角度分析了一些ChatGPT的目前需要改进的问题《由ChatGPT反思大语言模型(LLM)的技术精要》
还有一篇张家俊写的《关于ChatGPT八个技术问题的猜想》,里面的猜想回答倒也回答的一般(不过也值得大家搂一眼),但作者提出的那8个问题,倒是值得大家好好思考思考:如果这8个问题由你来回答,你的答案是什么呢?这才是我推荐这篇文章的主要目的。看别人的永远是别人的,只有自己解答的才是自己的。
【声明】以上内容只代表原作者个人观点,不代表artda.cn艺术档案网的立场和价值判断。