【LLM】从LLM出发认识AI–提示词编写技巧与LLM局限性


🔥个人主页: 中草药
🔥专栏:【Java】登神长阶 史诗般的Java成神之路
一、认识模型
前面的文章我们已经涉及到了Spring AI 【SpringAI】快速上手,详解项目快速集成主流大模型DeepSeek,ChatGPT
快速在项目中集成了一些大模型,现在我们对大模型进行一个深入的理解什么是模型
模型是一个从数据中学习规律的“数学函数”或“程序”。旨在处理和生成信息的算法,通常模仿人类的认知功能。通过从大型数据集中学习模式和洞察,这些模型可以进行预测、生成文本、图像或其他输出,从而增强各个行业的各种应用。

可以用一个生动的比喻理解:模型就像一座 “超级加工厂”,训练师通过海量示例数据(相当于生产原料)教会它工作规则,学成之后就能根据输入的 “原料”,产出符合预期的 “成品”。比如输入三组数据 [1,2,3] 输出 2、[5,10,15] 输出 10,模型就能总结出 “输出中间数” 的规则,面对 [8,9,10] 的输入时,精准输出 9。

传统模型有三个显著特点:
1、专注特定任务,比如专门识别图片中的猫、预测天气或判断评论情感;
2、依赖大量 “标注数据”,需要人工提前标注标准答案供其学习;
3、参数较少,导致复杂度和能力相对有限。而大语言模型,正是突破这些局限的革命性存在。

二、大语言模型
概念
⼤语⾔模型(Large Language Model,LLM)是指基于⼤规模神经⽹络(参数规模通常达数⼗亿⾄万亿级别,例如GPT-3包含1750亿参数),通过⾃监督或半监督⽅式,对海量⽂本进⾏训练的语⾔模型。
神经网络(Artificial Neural Network, ANN)是一种模仿人脑神经元连接结构的机器学习模型,核心是通过大量简单计算单元(神经元)的层级连接,学习数据中的特征和规律,实现分类、回归、生成等任务。它是深度学习的基础,也是 LLM、图像识别等 AI 技术的底层支撑。有一种理解:神经网络是一个通过数据训练出来的,由大量参数组成的复杂决策系统。
自监督学习是一种无监督学习的进阶形式,它不需要人工标注的标签,而是从无标注数据本身自动生成监督信号(伪标签),让模型在 “自生成的任务” 中学习数据的深层特征。简单来说:模型自己出题,自己答题,通过这个过程掌握数据的本质规律。
半监督学习是介于监督学习(全标注数据)和无监督学习(全无标注数据)之间的范式,它使用少量标注数据 + 大量无标注数据共同训练模型,利用无标注数据的分布规律提升模型性能。简单来说:半监督就是“少量指导+大量自学”的结合方式
核心特点
规模巨大:体现在两个维度 ——参数量(从亿级到万亿级,如 GPT-3 有 1750 亿参数)和训练数据量(涵盖书籍、网页、论文、代码等 TB 级文本)。
交互方式革新通用性强:无需针对特定任务重新训练,仅通过微调(Fine-tuning) 或指令提示(Prompt) 就能适配不同场景(如文本分类、翻译、写代码)。通俗而言,它拥有了举一反三的能力,把底层能力灵活应用到聊天、翻译、代码多个方面。
主流模型
| 模型名称 | 研发方 | 核心特点 | 优势适用场景 |
|---|---|---|---|
| GPT-5 | OpenAI | 支持 400k 背景信息长度,128k 最大输出标记 | 多轮复杂推理、创意写作 |
| DeepSeek R1 | 深度求索 | 开源,支持 128K 长上下文、20 + 语言 | 逻辑推理、数学求解、科技领域 |
| Qwen2.5-72B-Instruct | 阿里巴巴 | 通义千问开源模型成员,擅长代码生成 / 结构化数据(如 JSON)/ 角色扮演对话,支持 29 种语言 | 企业级复杂任务 |
| Gemini 2.5 Pro | 多模态融合标杆,支持图像 / 代码 / 文本混合输入 | 跨模态任务(图文生成、技术文档解析) |
Huggingface LLM 性能排行榜
https://huggingface.co/spaces/ArtificialAnalysis/LLM-Performance-Leaderboard
主要能力
LLM 的强大之处,集中体现在语言理解与创造、海量知识储备、逻辑与代码生成、多模态融合四个维度,这四大能力层层递进,推动 AI 从 “单一语言工具” 进化为 “全感知智能体”。
1、语言大师:理解与创造的革命
这是 LLM 最基础也最核心的能力,本质是对人类语言规律的深度掌握,实现了从 “被动识别” 到 “主动创造” 的跨越。
技术支撑:底层依赖 Transformer 的自注意力机制,能建模长文本的上下文关联;预训练阶段海量多语种、多风格文本的输入,让模型学习到不同场景下的语言范式。、
自注意力机制(Self-Attention)是 Transformer 最核心的组件,它的作用是让模型在处理输入序列中的每个词时,自动计算这个词与序列中其他所有词的关联程度(注意力权重),从而精准捕捉文本的语义联系 —— 简单说就是 “让每个词‘看到’句子里和自己相关的其他词”。
“自己和自己比” 的注意力
“自注意力” 里的 “自”,指的是同一输入序列内部的元素之间计算注意力(比如一句话里的每个词,和这句话里的其他词做关联)。
举个直观的例子:当处理句子 “小明喜欢他的小狗,它很可爱” 时,自注意力机制会让模型在处理 “它” 这个词时,自动给 “小狗” 分配更高的注意力权重(因为 “它” 指代 “小狗”),同时给 “小明”“喜欢” 分配较低的权重 —— 这样模型就能准确理解 “它” 的指代对象。
典型应用:智能客服对话、机器翻译、文本撰写、小说续写、口语化问答。
2、知识巨人:拥有 “全互联网” 的记忆
LLM 通过预训练阶段对万亿级文本数据的学习,构建了一个覆盖多领域的 “知识图谱”,而不仅仅是存储,相当于拥有了 “全互联网量级” 的知识储备。
知识整合与总结:可将分散的信息提炼为结构化内容,比如把一篇万字的学术论文总结为 200 字的核心摘要,把多个网页的产品评测整合成对比表格。
知识迁移与关联:能打通不同领域的知识壁垒,实现跨领域联想。例如,用生物学的 “生态位” 概念解释商业领域的 “市场定位”,用物理学的 “熵增定律” 分析组织管理的效率问题。
能力边界与痛点:模型的知识存在时效性局限(预训练数据有截止时间,无法获取最新事件);同时存在幻觉问题—— 可能生成看似合理但错误的知识(如编造不存在的论文、错误的历史事件时间)。
典型应用:智能问答机器人、知识库构建、文献综述辅助、教育辅导答疑。
3、逻辑与代码巫师:从思维到实现的跨越
当模型参数量和训练数据量达到阈值后,会涌现出逻辑推理和代码生成的高阶能力,实现 “从抽象思维到具体落地” 的转化。
核心能力:逻辑推理
数学与逻辑运算:能解初等数学题、代数方程,甚至完成简单的几何证明;能处理逻辑推理题(如三段论、真假命题判断)。例如,求解 “鸡兔同笼” 问题,推导 “如果 A 是 B 的充分不必要条件,那么非 B 是非 A 的什么条件”。
复杂问题拆解:面对多步骤的复杂任务,能拆解为子任务并按顺序解决。例如,“如何策划一场校园招聘会”,模型会拆解为 “确定时间地点、联系企业、宣传推广、现场组织” 等步骤,并给出每个步骤的细节。
核心能力:代码生成与调试
多语言代码生成:支持 Python、Java、C++、JavaScript 等主流编程语言,能根据自然语言指令生成代码片段或完整项目。例如,输入 “写一个 Java 程序,实现 ArrayList 的增删改查,并添加异常处理”,模型能直接输出可运行的代码。
代码调试与优化:能识别代码中的语法错误、逻辑错误,给出修改建议;还能对现有代码进行性能优化(如将暴力搜索算法改为二分查找)。
代码解释与文档生成:能解释复杂代码的逻辑(如开源框架的核心模块),还能根据代码自动生成 API 文档、注释。
技术支撑核心是涌现能力—— 模型参数量达到百亿级以上时,会自发形成逻辑推理能力;同时,预训练数据中包含的海量开源代码库(如 GitHub 数据),为代码能力提供了数据基础。
典型应用智能代码助手(如 Cursor、 GitHub Copilot)、算法推导辅助、程序调试工具、技术文档自动生成。
4、多模态先知:开启 “全感知” AI 的大门
传统 LLM 仅能处理文本,而新一代 LLM 突破了单模态限制,融合文本、图像、音频、视频等多种信息,实现 “全感知” 的智能交互。
文本 – 图像跨模态交互:能根据文本描述生成图像(如 “生成一幅赛博朋克风格的城市夜景”);也能根据图像输出文本描述、分析图像内容(如识别图片中的物体、场景,解读图表数据)。代表模型如 GPT-4V、Gemini。
文本 – 音频跨模态交互:支持语音转文字、文字转语音(还能模拟不同音色);能分析音频的情感(如识别语音中的喜怒哀乐),甚至根据文本指令生成特定风格的音乐片段。
多模态内容整合:能处理混合输入(如 “分析这张财报图表,并写一份 500 字的总结报告”),输出融合多模态信息的结构化内容。
技术支撑依赖多模态 Transformer 架构—— 通过统一的 token 化方法,将图像、音频等非文本信息转化为模型可处理的向量,再与文本 token 融合训练,实现跨模态的语义对齐。
典型应用图文生成工具、智能图像分析系统、语音助手、视频摘要生成、多模态知识库构建。
三、提示词的编写技巧
CO-STAR 结构化框架
CO-STAR 是一种标准化提示词结构,通过拆解需求的关键要素,让模型精准理解任务边界和输出要求,避免指令模糊导致的结果偏差。其全称为:
| 含义 | 核心作用 | 示例 |
|---|---|---|
| Context(上下文) | 提供任务背景、前置条件、约束规则 |
你是电商客服,需解答⽤⼾关于iPhone 17的咨询,知识库包含最 新价格和库存
|
| Objective(目标) | 明确用户的核心诉求与预期结果 |
准确回答价格、发货时间,推荐适配配件
|
| Steps(执行步骤) | 定义输出的格式 / 体裁(如代码、报告、对话) |
1. 识别⽤⼾问题类型;2. 检索知识库;3. ⽤亲切语⽓整理回复
|
| Tone(语气) | 规定语言的情绪倾向(如专业严谨、简洁通俗) |
⼝语化,避免专业术语,使⽤‘亲~’‘呢’等语⽓词
|
| Audience(受众) | 指明输出内容的接收对象(如研发同事、产品经理) |
20-35岁年轻消费者,对价格敏感,关注性价⽐
|
| Response(响应要求) | 限定输出的长度、结构、关键要素 |
价格:XXX元n库存:XXX件n推荐配件:XXX(链接)
|
少样本提示 / 多示例提示
这两种方法属于基于示例的提示策略,通过给模型提供「输入 – 输出」范例,让模型学习任务的输出范式,无需额外解释规则。
- 少样本提示(Few-Shot):提供 2-5 个 代表性示例,适用于简单任务(如文本分类、格式转换);
- 多示例提示(Multi-Shot):提供 5 个以上 示例,适用于复杂任务(如代码重构、逻辑推理),示例越多,模型输出越精准。
编写技巧
- 示例要典型且无歧义,覆盖任务的核心场景(如分类任务要包含所有类别);
- 输入和输出的格式严格统一,模型会直接模仿示例结构;
- 示例前加明确指令(如 “请参考以下示例,完成同类任务”),示例后加待处理的输入。
实战示例(MySQL SQL 优化分类场景)
请判断以下 MySQL SQL 语句的性能问题类型,参考示例格式输出:
示例 1:输入:
SELECT * FROM user WHERE name LIKE '%张三%'输出:性能问题类型:模糊查询使用前导通配符,导致索引失效
示例 2:输入:
SELECT id FROM user ORDER BY create_time LIMIT 10输出:性能问题类型:排序字段无索引,引发文件排序待处理输入:
SELECT COUNT(*) FROM order LEFT JOIN user ON order.user_id = user.id
思维链提示(Chain-of-Thought, CoT)
思维链提示是引导模型分步推理的核心技巧,通过要求模型 “先思考、再输出”,将复杂问题拆解为多个简单子问题,尤其适合数学计算、逻辑推理、代码调试等需要严谨推导的任务。
核心原理是:激活模型的因果推理能力,避免直接给出错误结论,通俗而言,要求AI展示其工作过程,而不是直接给出最终答案,这模仿了人类解决问题时的思考方式。
编写技巧
- 指令中必须包含明确的推理引导词,如 “一步步思考”“先分析原因,再推导结果”;
- 复杂问题要强制模型拆解步骤(如 “第一步:分析输入参数合法性;第二步:检查方法调用逻辑”);
- 推理过程和最终结果分开表述,方便验证。
实战示例(算法逻辑推理场景)
问题:杂耍者可以杂耍16个球。其中⼀半的球是⾼尔夫球,其中⼀半的⾼尔夫球是蓝⾊的。请问总共有多 少个蓝⾊⾼尔夫球?输出:8 个蓝⾊⾼尔夫球(早期llm会出现的问题,现在用市面上主流的llm很难复现错误输出)
优化后:
Q:“罗杰有五个⽹球,他⼜买了两盒⽹球,每盒有3个⽹球,请问他现在总共有多少个⽹球?”A:“罗杰起初有五个⽹球,⼜买了两盒⽹球,每盒3个,所以,他总共买了2×3=6个⽹球,将起始的数量和购买的数量相加,可以得到他现在总共的⽹球数量:5+6=11,所以罗杰现在总共有11个⽹球”问:“⻝堂总共有23个苹果,如果他们⽤掉20个苹果,然后⼜买了6个苹果,请问现在⻝堂总共有多少个苹果?”告诉他一步一步应该怎么做,提供完善的思考过程作为范例
自动推理与零样本链式思考(Zero-Shot CoT)
零样本链式思考是思维链提示的进阶版,无需提供任何示例,仅通过指令直接引导模型进行分步推理。它的核心是利用模型的预训练知识,触发其内在的推理能力,适用于没有参考范例的全新任务。
编写技巧
- 指令模板为:
问题描述 + 让我们一步步思考这个问题,这是触发零样本 CoT 的关键; - 对模型的推理步骤做明确约束(如 “从输入参数、方法逻辑、返回值三个维度分析”);
- 避免使用模糊表述,尽量将问题拆解为可量化的子问题。
实战示例(无示例代码逻辑判断场景)
问题:Java 中,
HashMap和ConcurrentHashMap在并发场景下的线程安全机制有什么区别?要求:让我们一步步思考这个问题。第一步,分析HashMap的底层结构和并发问题;第二步,说明ConcurrentHashMap的核心设计(如分段锁、CAS 机制);第三步,对比两者在并发写入时的执行流程差异;第四步,总结适用场景。
自我批判与迭代提示
自我批判与迭代提示是让模型自查自纠的技巧,核心思想是将“生成”和“评审”两个步骤分离,利用AI的批判性思维来提升内容质量。通过要求模型 “先生成结果→再检查错误→再优化迭代”,形成闭环,提升输出内容的精度。适用于高精度任务,如论文润色、代码重构、复杂逻辑推导。
编写技巧
- 分三个阶段设计指令:生成阶段→批判阶段→迭代阶段;
- 批判阶段要明确检查维度(如 “检查代码是否符合 Java 编码规范、是否存在空指针风险、是否有性能优化空间”);
- 迭代阶段要求模型基于批判结果修改,并说明修改理由。
实战示例(Java 代码优化迭代场景)
任务:优化以下 Java 接口代码,并执行自我批判与迭代。代码:
@GetMapping("/user") public User getUser(Long id) { return userDao.selectById(id); }要求:
- 生成阶段:先给出初步优化后的代码;
- 批判阶段:从参数校验、异常处理、性能优化、安全性四个维度检查优化代码的不足;
- 迭代阶段:基于批判结果,给出最终优化版本,并标注每处修改的原因。
总结

在实际应用中,这些技巧常常是组合使用的。例如,我们可以:
1、使用 CO-STAR 框架设定基本结构和角色。
2、在框架的 “Steps” 或 “Response” 部分,融入思维链指令。
3、对于格式复杂的输出,在最后附上少样本示例。
4、最后,要求 AI 进行自我审查。
四、LLM接入方式
API 远程调用:云端即服务,快速上手
通过 HTTP 请求调用云端 LLM 服务提供商(如 OpenAI、智谱 AI、通义千问)的 RESTful 接口,无需管理底层模型和硬件,按Token / 调用次数 / 时长计费。
接入流程(以 DeepSeek 为例)
| 步骤 | 操作内容 | 关键说明 |
|---|---|---|
| 1 | 注册账号并获取 API Key | 在平台控制台创建密钥,妥善保管 |
| 2 | 选择模型与接口 | 如gpt-4o/gpt-3.5-turbo,接口路径https://api.openai.com/v1/chat/completions
|
| 3 | 构造HTTP请求 | 设置请求头(含 API Key)、模型参数、对话内容 |
| 4 | 发送请求并处理响应 | 支持同步 / 异步 / 流式响应,解析 JSON 结果 |
| 5 | 错误处理与重试 | 处理 4xx/5xx 错误,实现指数退避重试机制 |
DeepSeek cURL(来源于官网)
curl https://api.deepseek.com/chat/completions
-H "Content-Type: application/json"
-H "Authorization: Bearer ${DEEPSEEK_API_KEY}"
-d '{
"model": "deepseek-chat",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"stream": false
}'

优缺点分析
| 优点 | 缺点 |
|---|---|
| ✅ 零部署成本:无需硬件 / 环境配置,即开即用 | ❌ 数据隐私风险:数据需传输至第三方服务器 |
| ✅ 自动更新:模型迭代无需用户操作 | ❌ 依赖网络:断网无法使用,存在延迟 |
| ✅ 弹性扩展:轻松应对流量波动 | ❌ 成本累积:大规模使用费用较高 |
| ✅ 上手快:适合快速原型验证和学习 | ❌ 功能限制:部分高级功能可能受限 |
一般适用于新手快速上手体验和原型mvp的开发
开源模型本地部署:数据自主,深度定制
将开源 LLM(如 Llama 3、ChatGLM、Qwen)部署在本地服务器 / 私有云 / 边缘设备,数据不出本地,完全自主可控。
核心概念是,将下载模型的⽂件(权重和配置⽂ 件),使⽤专⻔的推理框架在本地服务器或 GPU 上加载并运⾏模型,然后通过类似 API 的⽅式进⾏交互。
接入流程
| 步骤序号 | 步骤名称 | 具体说明 |
|---|---|---|
| 1 | 获取模型 | 从 Hugging Face(国外)、魔搭社区(国内)等平台下载开源模型的权重(平台参考本篇章第四节) |
| 2 | 准备环境 | 配置具有足够显存(如 NVIDIA GPU)的服务器,安装必要的驱动和推理框架 |
| 3 | 选择推理框架 |
选用生产环境 / 开发场景适配的框架: ・vLLM:注重高吞吐量推理服务,性能极佳 ・TGI:Hugging Face 推出,功能全面 ・Ollama:用户友好,一键拉取运行模型,适合快速入门与本地开发 ・LM Studio:提供图形化界面,本地运行模型操作简单 |
| 4 | 启动服务并调用 | 框架启动本地 API 服务器(如http://localhost:8000),可像调用云端 API 一样向该本地地址发送请求 |

优缺点分析
| 优点 | 缺点 |
|---|---|
| ✅ 数据隐私保障:核心数据完全本地化,符合合规要求 | ❌ 硬件成本高:高性能 GPU 投入大(单卡 4090 约 1.5 万元) |
| ✅ 高度定制:可修改模型权重、微调、自定义推理流程 | ❌ 技术门槛高:需专业团队维护,解决环境依赖与兼容性问题 |
| ✅ 无网络依赖:可离线运行,适合涉密环境 | ❌ 迭代成本:模型更新需手动操作,兼容性风险 |
| ✅ 长期成本低:一次性硬件投入,无持续调用费用 | ❌ 资源消耗大:模型运行占用大量系统资源 |
适用场景
- 医疗 / 金融 / 政务等数据敏感行业
- 需要离线运行的场景(如军工、野外作业)
- 对模型有深度定制需求的企业级应用
SDK 和官方客户端库:简化开发,增强集成
模型厂商提供的编程语言专用库(如 Python/Java/Node.js),封装底层 API 调用细节,提供更友好的编程接口,支持复杂功能(如会话管理、流式输出、工具调用)。
接入流程(以 OpenAI SDK 为例)
| 步骤 | 操作内容 | 关键说明 |
|---|---|---|
| 1 | 安装 SDK |
pip install openai(Python)或npm install openai(Node.js) |
| 2 | 初始化客户端 | 配置 API Key、代理(可选) |
| 3 | 调用模型方法 | 使用封装好的函数(如chat.completions.create) |
| 4 | 处理响应 | 直接获取结构化结果,无需手动解析 JSON |
| 5 | 高级功能使用 | 会话管理、流式输出、函数调用、错误处理 |
代码示例(OpenAI SDK 流式调用)
from openai import OpenAI
import os
# 初始化客户端
client = OpenAI(
api_key=os.getenv("OPENAI_API_KEY"),
timeout=30
)
# 流式调用
stream = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "介绍LLM SDK的优势,分点说明"}],
stream=True # 启用流式输出
)
# 实时打印结果
print("AI回复:")
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
核心优势对比(vs 原生 API 调用)
| 优势 | 说明 |
|---|---|
| 代码简洁 | 无需手动构造 HTTP 请求和解析响应,直接调用方法 |
| 类型安全 | 提供类型提示(Type Hints),减少开发错误 |
| 自动处理 | 自动处理认证、请求头、序列化 / 反序列化 |
| 高级功能 | 内置会话管理、流式响应、工具调用等复杂功能 |
| 错误封装 | 提供更友好的错误类型,便于调试 |
| 版本兼容 | 自动适配 API 版本更新,减少维护成本 |
适用场景
- 企业级应用开发,追求代码质量与可维护性
- 需要集成复杂功能(如函数调用、多轮对话)
- 跨平台 / 多语言项目开发,需要统一接口抽象
五、局限性
大语言模型(LLM)虽然在自然语言理解、生成等任务上表现卓越,但受限于统计建模本质和技术架构设计,存在诸多无法忽视的局限性,这些局限性的核心根源是:LLM 不具备真正的 “理解” 能力,只是基于海量文本数据的概率分布进行模式匹配和生成。实际上只要是原生的LLM,无论怎么接入都会有限制,下面是主要的局限性:
1、事实性错误与 “幻觉” 问题
这是 LLM 最突出的局限性。LLM 的生成逻辑是 “预测下一个最可能出现的 token”,而非 “检索并验证真实知识”。即使没有相关知识,模型也会基于文本模式编造看似合理但完全错误的内容,这种现象被称为模型幻觉。
具体表现:生成不存在的文献、人名、数据、事件;引用错误的公式或理论;对小众领域、冷门知识的回答准确率极低。
2、复杂逻辑推理能力薄弱
LLM 在多步骤推理、因果推理、数学推理等任务中表现较差,尤其面对需要严谨逻辑链的问题时,容易出现 “一步错、步步错” 的情况。
核心原因:模型依赖文本表面的关联模式,而非底层的逻辑规则。对于需要抽象思维、符号运算的任务,缺乏系统性的推理框架。
典型案例:解多变量方程组、证明数学定理、分析复杂案件的因果关系时,模型的回答大概率存在逻辑漏洞或计算错误。
3、上下文窗口长度限制
所有 LLM 都有最大上下文长度(以 token 为单位),超过该长度后,模型会 “遗忘” 前文的关键信息,导致回答前后矛盾、偏离主题。
具体表现:处理长篇文档(如万字合同、整本书籍)时,无法兼顾全文逻辑;在多轮对话中,若历史对话过长,会忽略早期的用户指令。
现状:主流 LLM 的上下文窗口从几千 token 到百万 token 不等,但大窗口模型的推理成本会显著上升,且 “长距离注意力” 的效率和准确性仍有待优化。

4、偏见与伦理风险
LLM 的训练数据来自互联网,而互联网中存在大量的性别、种族、地域、职业等刻板偏见,这些偏见会被模型学习并放大,进而在生成内容中体现。
具体表现:对特定职业(如护士、程序员)的刻板印象描述;对不同地域人群的差异化评价;生成带有歧视性的语言。
衍生风险:容易被滥用生成虚假信息、恶意言论、钓鱼邮件、恶意代码等有害内容,存在信息安全和社会伦理隐患。
5、缺乏实时知识与动态更新能力
LLM 的训练数据有明确的时间截止点(例如 GPT-4 截止到 2023 年 7 月),无法获取训练截止后的新事件、新数据、新政策。
具体表现:无法回答最新的科技突破、体育赛事结果、政策调整等时效性问题;对新兴领域(如刚出现的技术术语)的理解和解释存在偏差。
6、可控性与一致性差
用户很难精准控制 LLM 的输出边界,虽然可以通过提示词要求模型输出JSON或特定格式,但是仍然可能产生格式错误或者不合规的内容,比如要求生成 “简洁的技术摘要” 时,模型可能生成冗长的科普内容;在多轮对话中,模型的回答风格、核心观点可能出现漂移,缺乏一致性。
LangChain这样的框架就是为了系统性解决这些问题
六、笔者自己的思考
AI 现象级爆火后,笔者身边不少的好友同学提到过一个问题–“程序员会被AI替代吗”
回想起来,第一次接触到ai应该是23年,那时候我才高三,应该正是高考前后,已经记不清自己是如何接触到的,只记得是通义千问,那时眼界局限,我错误固执的认为他只是一个对浏览器检索结果的归纳整理进行一个展示,只觉得新奇,并不觉得这是一个多大的技术革新,那时已经开始用他代替浏览器去进行一些搜索,帮忙写一些简单的文本,然而,那是我检索的主战场还是浏览器
然而很快,AI的革新太快了,从kimi,文心一言,豆包,再到现象级的DeepSeek,一开始是借助AI完成一些事项发现不尽人意,怒喷AI根本不懂,到现在AI基本贯穿了我的全部生活,后来我也踏上了计算机这条路,专注于后端这个方向,开始接触更多与这相关的事物,也开始深入了解
时至今日,我以一名大三学生的身份开启了我的第二段实习,前段时间谷歌推出Gemini 3.0,一时间 前端已死 的口号又随风而起,似乎每有一个能力强悍的AI问世,前端都要死一次,而我的看法是 AI取代程序员还有很长一段路要走,但是AI很快会取代不会AI的程序员
我觉得,每一个学习计算机的人都要积极拥抱AI,时代所向,为了提升自己的竞争力,也要求我们去深入学习,笔者喜欢在每次面试之后的反问环节问一句:对我未来的学习有什么建议吗?基本上都提到了要去学习AI的相关知识,加之我现在在企业实习的观点来看,我个人认为AI赋能企业化已经有了显著成就,很多项目AI为其提供了新的思路,平时我们也会使用AI去提效,我始终认为AI的使用是和使用者的水平息息相关的,如何去拆解复杂问题,如何去构建思维链,模块的划分,接口的耦合聚合程度,这些都是RD所需要考虑的问题,实习过程中,AI与我自己的编写比例大概是4 6开,当然这4成我基本上都需要我反复修改审视,我对AI的了解也是处于一个起步阶段,值得我探索,值得我深究的内容还有很多很多
从我的观察来看,当时大模型,AI的爆火,大家都在追求AI技术的发展,能力的提升,而有一些忽略了AI赋能,现在AI的赋能程度类比过来可能不及AI技术达到的高度,未来AI在企业,生活的落地我总觉得有着很多令人遐想的空间,之前看到一个很有意思的说法,AI的出现发展应该是最新一次的科技革命,我非常赞同,客观承认,他的出现会带来一部分工作岗位的锐减,确实会去替代那些技术壁垒不是很强的工作,但是我觉得他也会让很多行业焕发第二春,比如,融入基建,土木相关专业是不是就是起来了,融入机器人,是否能够去飞檐走壁取代高危行业,值得期待,值得研究
最后最后贴一篇AI的解读,尖锐深刻

(叠甲以上内容全是笔者拙见,不喜勿喷,欢迎交流,期待与你观点的碰撞)
也祝大家元旦快乐,2026年心想事成,财源广进,offer多多❤️
有两样东西,人们越是经常持久地对之凝神思索,它们就越是使内心充满常新而日增的惊奇和敬畏:我头上的星空和我心中的道德律 ——康德
🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀🍀
以上,就是本期的全部内容啦,若有错误疏忽希望各位大佬及时指出💐
制作不易,希望能对各位提供微小的帮助,可否留下你免费的赞呢🌸
