[返回股票投资首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

咱俩讲的可能不是一个事情,欢迎你说技术上有什么本质的不同。我是没看出来。

送交者: tx33385[★★保洁人员★★] 于 2024-12-23 21:27 已读 122 次  

tx33385的个人频道

+关注

回答: 瞎扯 由 菜菜在加州 于 2024-12-23 20:54

目前市面上主流的大模型(无论是 OpenAI、Google、Meta、Anthropic 还是其他厂商)仍然大多遵循“预训练 + 微调”的大语言模型(LLM)范式,整体上并没有出现与 GPT-4 完全不同、革命性的新模型架构。大多数“新一代”模型可以视作在原有 LLM 核心框架上做了大量改进和扩展,包括:更大的参数规模、更精细的训练数据、多模态能力、增强型上下文记忆、检索式提示(RAG)、更强的工具/插件调用等。
以下几点说明为什么当前还谈不上“颠覆式”革命:
主干依然是 Transformer 或类似的自回归语言模型
虽然在 GPT-4 之后,各家都在尝试新结构(如混合专家 Mixture of Experts,稀疏注意力 Sparse Attention 等),但大部分实现依然继承了“Transformer + 自回归”这一基础架构。其核心思路还是通过大规模无监督/自监督训练,让模型学习到广泛的语言和知识表示。
多模态和工具集成属于“能力增强”,并非范式转变
多模态:把图像、语音、视频等信息也转成适合模型处理的向量序列,然后继续在 Transformer 结构上学习。
工具与插件调用:在对话框架中额外添加了调用外部 API 或数据库的能力,起到“补充知识”或“实现复杂计算”的作用,但本体依旧是一种语言模型。
新技术也多是“与 LLM 相结合”的形态
比如 Retrieval-Augmented Generation(RAG),通过检索库来增强模型的知识能力,或是借助外部“思维链”进行更深度推理。这些技术是将检索、推理等模块与大语言模型耦合起来,但并没有完全替代 LLM 核心。
研究方向与可能的突破
虽然目前仍在 LLM 范畴,但有些研究方向可能带来下一步重大变化:
元学习 / 自主学习:让模型在部署中持续自学习,动态更新参数。
强化可解释性:引入新架构来让模型的推理链更透明,或能进行更类似人类因果推理的过程。
图神经网络融合:将结构化知识与语言模型深度结合。
生物神经形态计算:尝试新的硬件和算法范式,打破当前 GPU/TPU 体系下的限制。
总的来说,当前我们看到的各种 GPT-4 的“升级版”或同类型竞品,确实在性能和能力上不断迭代,但在最根本的模型范式上依然没有出现与 “大语言模型 + 预训练 + 微调” 完全背离的替代方案。真正的“革命性”突破,可能还需要等待新的算法范式、计算硬件或学习机制的出现。
喜欢tx33385朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]