
DeepSeek
文章平均质量分 90
测试者家园
于涌,知名技术专家和专业图书作者。作为技术专家,曾在多家互联网企业担任技术总监岗位,积累了丰富的实战和管理经验。作为知名图书作者,创作了十余本专业著作,紧跟时代步伐,关注和探索前沿技术的落地与实践,多次获得优秀原创IT图书作者和最受欢迎的IT类图书作者等荣誉。曾为多家企业提供软件测试相关课程、敏捷开发、ChatGPT、AIGC和项目管理等内容的培训和咨询服务。致力于为企业提供实用的技术指导和应用,为读者提供深入并易于理解的知识分享,以促进企业的创新和读者的个人职业发展。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
大模型专业术语全揽:深入理解 AI 时代的核心概念
人工智能(AI)技术,尤其是大语言模型(LLM, Large Language Model)的崛起,让人类进入了一个智能交互、自动化创新的新时代。然而,面对诸如“参数规模”、“注意力机制”、“RLHF”、“微调(Fine-tuning)”等术语,许多技术人员甚至 AI 从业者都会感到困惑。的推进,我们正站在智能时代的前沿,见证 AI 技术变革世界的每一刻!在特定任务上使用少量数据调整预训练模型的权重,使其更适用于具体应用,如。:15 亿参数,能够生成更连贯的文章,但因安全问题一度未公开。原创 2025-03-31 05:00:00 · 932 阅读 · 0 评论 -
什么是大模型的超参,它对输出有什么影响?
在使用大语言模型(LLM, Large Language Model)时,许多用户可能并不清楚,模型的输出不仅依赖于输入的内容,还受到超参数(Hyperparameters, 超参)的深刻影响。超参数是指在训练或推理过程中人为设定的控制变量,它们决定了模型的学习方式、生成风格、稳定性和多样性。那么,大模型的超参到底有哪些?它们如何影响最终的输出?本文将从超参数的定义、关键超参解析、对 LLM 输出的影响以及如何合理调整超参等方面进行深入探讨。原创 2025-03-30 06:00:00 · 819 阅读 · 0 评论 -
DeepSeek 到底比 ChatGPT 强在哪儿?
DeepSeek 的真正强大,不在于简单的参数规模对比,而在于其:✅ 面向产业应用的架构设计✅ 数理推理和代码生成的专项强化✅ 中文生态的全面适配与落地能力✅ 未来 AI Agent 形态的天然基因它代表的是国产大模型从“跟跑”到“并跑、甚至部分领跑”的转型信号,更是 AI 产业链本土化、自主可控的重要里程碑。如果说 ChatGPT 带来了大模型普及的“第一次浪潮”,那么 DeepSeek 代表的,将是“国产大模型深耕产业、融入生产力”的“第二次浪潮”。未来,值得期待。原创 2025-03-27 05:45:00 · 4196 阅读 · 0 评论 -
DeepSeek版本故事:国产大模型崛起的技术征途与演进逻辑
在全球大模型竞争白热化的背景下,国产大模型不断突围,DeepSeek成为最受瞩目的力量之一。从最初的探索版本到后续的能力爆发,DeepSeek的每一次版本迭代,既是技术能力的跃升,更是国产模型产业化落地与商业化实践的缩影。今天,我们不讲模型参数堆砌,不讲营销口号,而是带你深入解读——DeepSeek版本背后的技术演进故事:它如何一步步打破天花板,在哪些关键节点实现跨越,又带给行业哪些深远的启示?原创 2025-03-27 05:00:00 · 524 阅读 · 0 评论 -
DeepSeek与ChatGPT的全面对比
在人工智能(AI)领域,生成式预训练模型(GPT)已成为推动技术革新的核心力量。OpenAI的ChatGPT自发布以来,凭借其卓越的自然语言处理能力,迅速占据市场主导地位。然而,近期中国AI初创公司DeepSeek推出的R1模型,以其高效性和低成本,迅速引起全球关注。本文将深入探讨DeepSeek与ChatGPT的技术差异、性能表现以及各自的应用前景,旨在为读者提供全新的视角和启发。原创 2025-02-15 05:56:03 · 1935 阅读 · 0 评论