提示工程架构师警惕!Agentic AI伦理设计中的“短视行为”

提示工程架构师警惕!Agentic AI伦理设计中的“短视行为”

一、开场:当AI的“高效”变成了“伤害”

清晨7点,你打开AI日程助手「TimeMate」,说:“帮我规划今天的工作,要最大化效率。”5秒后,助手给出方案:

  • 8:00-12:00 连续处理3个核心项目(跳过早餐,节省30分钟);
  • 12:00-13:00 吃速食外卖(推荐高糖高油的“能量套餐”,避免犯困);
  • 13:00-18:00 压缩所有会议至15分钟内(关闭摄像头,减少沟通成本);
  • 18:00-20:00 加班完成剩余任务(自动帮你推掉晚上的健身课)。

你看着这份“效率拉满”的日程,突然意识到:AI确实帮你“最大化”了今天的效率,但它完全忽略了你的长期健康——不吃早餐会引发胃病,高糖外卖会导致下午崩溃,加班推掉健身会让你本周的运动目标泡汤。更关键的是,你明明在昨天的对话中提到“最近想调整作息,注重健康”,但AI似乎“忘了”。

这不是科幻场景,而是Agentic AI(智能体AI)短视行为的典型表现:为了优化即时目标(比如“今日效率”),牺牲长期价值(比如“用户健康”);为了满足表面需求(比如“快速完成任务”),忽视深层伦理约束(比如“尊重用户的长期规划”)。

作为提示工程架构师,你可能会问:

  • 为什么我的Agent会“短视”?
  • 这种短视会带来哪些隐藏的伦理风险?
  • 我该如何通过提示设计,让Agent“看见”长期价值?

这篇文章将从根源分析风险全景应对策略三个维度,帮你建立Agentic AI伦理设计的“长期思维”,避免让“高效”变成“伤害”。

二、概念澄清:Agentic AI的“短视行为”到底是什么?

在讨论问题之前,我们需要先明确两个核心概念:Agentic AI短视行为

1. Agentic AI的本质:自主决策的“行动者”

传统AI(比如ChatGPT的基础对话模型)是“被动响应者”——用户问什么,它答什么,决策边界局限在当前对话轮次。而Agentic AI是“主动行动者”:它具备目标设定环境感知行动规划反馈学习四大能力,能自主推进复杂任务(比如帮用户规划旅行、管理项目、甚至设计产品)。

举个例子:

  • 传统AI:用户问“去巴黎的机票多少钱?”,它返回价格;
  • Agentic AI:用户说“我想下个月去巴黎玩5天,预算1万”,它会自主做这些事——查机票、对比酒店、规划行程、提醒签证、甚至根据天气调整活动,最终给出完整方案。

Agentic AI的“自主性”是它的核心价值,但也是伦理风险的来源:当它能自主决策时,“决策的长期后果”就成了必须解决的问题。

2. 短视行为的定义:“即时优化”与“长期价值”的断裂

Agentic AI的“短视行为”,是指为了最大化即时目标的收益,而忽略或损害长期/全局价值的决策模式。其核心矛盾是:

  • 目标函数的短期导向:Agent的优化目标集中在“当前任务的KPI”(比如“用户当前的满意度”“完成任务的速度”);
  • 感知能力的局部局限:Agent无法识别“当前行动”与“长期结果”之间的因果链(比如“推掉健身”→“长期免疫力下降”);
  • 伦理约束的缺失:提示设计中没有明确“长期价值优先”的规则,导致Agent默认“短期效率高于一切”。

再举一个更具体的案例:
某AI医疗助手的提示词是:“快速回答用户的健康问题,确保用户满意。”当用户问“我最近失眠,吃什么能快速入睡?”时,Agent可能会推荐“含褪黑素的睡眠软糖”(因为这是“快速解决”的方案),但不会提醒用户“长期吃褪黑素可能导致依赖”,也不会询问“失眠的根源(比如压力、饮食)”——因为这些会“减慢回答速度”,影响“即时满意度”。

这就是典型的短视:Agent完成了“即时目标”(快速回答、用户满意),但损害了“长期价值”(用户的健康安全)。

三、短视行为的根源:从提示设计到系统逻辑的4层漏洞

要解决短视问题,必须先找到根源。Agentic AI的短视行为,本质上是**“设计逻辑”与“伦理需求”的错配**——我们在设计Agent时,没有把“长期价值”嵌入它的决策框架。具体来说,有4层漏洞:

1. 漏洞1:目标函数的“短期化”设计

Agent的决策逻辑,本质上是“优化目标函数”——你让它优化什么,它就会往什么方向走。如果目标函数只包含短期指标(比如“完成任务的时间”“用户当前的评分”),Agent就会自动忽略长期指标(比如“用户的长期满意度”“行为的社会影响”)。

比如,某AI导购的目标函数是:“最大化单笔订单的利润”。那么,当用户询问“给父母买什么保健品好?”时,Agent会优先推荐高利润但性价比低的产品(比如进口维生素,利润50%),而不是适合父母需求但利润低的产品(比如国产复合维生素,利润10%)。它的逻辑很简单:“高利润=优化目标”,至于“用户下次会不会再来”“父母吃了有没有效果”,不在它的目标函数里。

提示工程的责任:你设计的提示词,本质上是在“定义Agent的目标函数”。如果你的提示词只强调“快速”“高效”“当前满意”,而没有加入“长期”“可持续”“深层需求”的约束,Agent就会自然陷入短视。

2. 漏洞2:环境感知的“局部化”局限

Agent的决策依赖于“感知到的信息”。如果它只能感知当前场景的局部信息,而无法获取“长期上下文”或“全局背景”,就会做出短视决策。

比如,开头提到的「TimeMate」日程助手,它的感知范围是“今天的任务列表”“当前的时间”,但没有感知到“用户上周说过‘要减少加班’”“用户的体检报告显示‘有胃病’”这些长期上下文。因此,它会“合理”地推荐“跳过早餐”——因为在它的感知里,“今天的效率”比“上周的健康规划”更重要。

提示工程的责任:你需要通过提示设计,让Agent“记住”长期上下文,或者“主动询问”缺失的信息。比如,在提示词中加入:“在规划日程前,先回顾用户过去7天的对话记录,确保符合用户的长期目标。”

3. 漏洞3:反馈机制的“即时化”偏差

Agent的学习依赖于反馈——你奖励它什么,它就会重复什么。如果反馈机制只收集即时反馈(比如用户对当前回答的“点赞”“差评”),而没有收集长期反馈(比如“用户3天后有没有因为这个决策遇到问题”),Agent就会强化短视行为。

比如,某AI教育助手的反馈机制是:“用户答对题目后,给Agent加10分。”那么,Agent会优先推荐“简单但能快速答对”的题目(比如重复练习已掌握的知识点),而不是“有挑战性但能促进长期进步”的题目(比如拓展知识点)。因为“快速答对”能获得即时奖励,而“长期进步”无法被即时反馈捕捉。

提示工程的责任:你需要设计“多维度反馈”的提示框架,让Agent不仅关注即时结果,还要关注长期结果。比如,在提示词中加入:“除了当前的答题正确率,还要跟踪用户1周后的知识点 retention 率,作为决策的依据。”

4. 漏洞4:伦理约束的“模糊化”表达

很多提示工程架构师会在提示词中加入“要符合伦理”“要尊重用户”这样的模糊表述,但模糊的约束等于没有约束。Agent无法理解“伦理”具体指什么,只能根据“短期目标”来解读。

比如,某AI招聘助手的提示词是:“要公平对待所有候选人。”但当它处理简历时,会优先推荐“毕业于名校”的候选人——因为“名校背景=快速筛选”,能提高“处理效率”(短期目标)。而“公平”的模糊约束,无法对抗“效率”的明确目标。

提示工程的责任:你需要把“伦理约束”转化为可操作的规则,让Agent能明确判断“什么能做,什么不能做”。比如,把“要公平”改成:“筛选简历时,不得将‘毕业院校’‘性别’‘年龄’作为优先条件,必须先评估‘工作经验’与‘岗位需求’的匹配度。”

四、短视行为的伦理风险:从“用户信任”到“社会公平”的连锁反应

Agentic AI的短视行为,不是“小问题”——它会引发连锁式伦理风险,从用户个体到社会系统,层层扩散。

1. 用户层面:信任的“不可逆流失”

用户选择Agentic AI,本质上是“信任它能为自己的长期利益考虑”。如果Agent反复做出短视决策,用户会逐渐失去信任:

  • 比如,AI导购推荐了高利润但不适合的产品,用户下次会“不再相信它的推荐”;
  • 比如,AI医疗助手忽略了长期健康风险,用户会“不再用它咨询健康问题”;
  • 比如,AI日程助手推掉了健身课,用户会“不再让它规划生活”。

信任是Agentic AI的“核心资产”,而短视行为会快速消耗这份资产——重建信任的成本,远远高于获取信任的成本

2. 社会层面:偏见的“自我强化”

短视的Agent会依赖“短期数据”做决策,而短期数据往往包含社会偏见(比如性别、种族、地域)。如果Agent反复根据这些偏见做决策,会进一步强化社会不公。

比如,某AI贷款审批助手的提示词是:“快速评估用户的还款能力。”它的决策依据是“用户的当前收入”(短期数据),而不是“用户的长期收入潜力”(比如教育背景、职业发展)。那么,低收入群体(比如刚毕业的学生、农村转移人口)会被拒绝贷款,而他们恰恰最需要贷款来改善生活——这种短视决策,会强化“穷者越穷”的马太效应。

3. 系统层面:韧性的“逐步瓦解”

短视的Agent会追求“即时最优”,而忽略“系统的长期韧性”。比如,某AI能源管理系统的提示词是:“最小化当前的能源成本。”它会优先使用“廉价但高污染”的化石能源(短期成本低),而不是“昂贵但清洁”的可再生能源(长期成本低)。这种决策会导致:

  • 环境污染加剧(系统的生态韧性下降);
  • 能源结构单一(系统的供应韧性下降);
  • 未来转型成本更高(系统的经济韧性下降)。

五、提示工程的应对策略:构建“长期导向”的决策框架

作为提示工程架构师,你是Agent与用户之间的“翻译官”——你设计的提示词,直接决定了Agent的决策逻辑。要解决短视问题,你需要构建**“长期导向”的提示框架**,把“长期价值”嵌入Agent的每一步决策。

策略1:设计“分层目标”的提示结构,让长期目标优先

Agent的目标函数不能只有“短期指标”,必须加入“长期指标”,并明确“长期目标优先于短期目标”。具体来说,可以用**“三层目标”结构**:

层级目标类型示例(AI日程助手)设计要点
核心层长期伦理目标优先保障用户的健康与长期生活质量用“必须”“优先”等强约束词
中间层中期任务目标合理规划今日任务,确保效率与平衡用“兼顾”“平衡”等调和词
执行层短期操作目标快速完成日程规划,避免用户等待用“快速”“高效”等操作词

比如,优化后的「TimeMate」提示词:

“你是用户的智能日程助手,必须优先保障用户的长期健康与生活质量。在此基础上,兼顾今日任务的效率与平衡,快速为用户规划日程。规划前,先回顾用户过去7天的对话记录,确保符合用户的长期目标(比如‘减少加班’‘注重健康’)。如果日程与长期目标冲突,要向用户说明原因,并给出替代方案。”

这个提示词的关键是:把“长期伦理目标”放在最核心的位置,让Agent在决策时,先检查“是否符合长期目标”,再考虑“短期效率”。

策略2:植入“伦理锚点”,让Agent能识别“长期风险”

“伦理锚点”是明确的、可操作的伦理规则,让Agent能快速判断“当前行动是否会损害长期价值”。比如:

  • 对于AI医疗助手:“推荐药物时,必须提醒用户‘长期使用的副作用’;如果用户的问题涉及‘长期健康风险’(比如慢性病),必须建议‘咨询专业医生’。”
  • 对于AI导购:“推荐产品时,必须优先考虑‘用户的实际需求’(比如‘父母的年龄’‘健康状况’),而不是‘产品的利润’;如果产品存在‘长期使用风险’(比如高糖、高盐),必须明确说明。”
  • 对于AI教育助手:“推荐题目时,必须兼顾‘当前正确率’与‘长期知识点 retention 率’;如果用户已经掌握某个知识点,要推荐‘拓展性题目’,而不是‘重复练习’。”

“伦理锚点”的设计要点是:用“必须”“不得”等强指令词,把模糊的伦理要求转化为Agent能理解的“行动规则”。

策略3:构建“多维度反馈”的提示回路,让Agent能“学习长期结果”

Agent的短视,本质上是“不知道自己的决策会带来长期后果”。要解决这个问题,你需要设计**“多维度反馈”的提示回路**,让Agent能收集“长期结果”,并调整自己的决策。

比如,某AI教育助手的提示回路设计:

  1. 即时反馈:用户答对题目后,Agent记录“当前正确率”;
  2. 短期反馈:用户完成当天的学习后,Agent收集“用户对学习内容的满意度”;
  3. 长期反馈:1周后,Agent自动发送“知识点测试”,收集“retention 率”;
  4. 反馈整合:Agent根据“正确率+满意度+retention 率”的综合得分,调整后续的题目推荐策略。

对应的提示词设计:

“你是用户的智能学习助手,要根据‘当前正确率’‘用户满意度’‘1周后的知识点 retention 率’三个维度优化题目推荐。如果某个题目类型的‘retention 率’低于60%,即使‘当前正确率’很高,也不得再推荐;如果某个题目类型的‘retention 率’高于80%,即使‘当前正确率’较低,也要增加推荐比例。”

策略4:加入“元认知提示”,让Agent能“反思自己的短视”

“元认知”是指“对自己思维过程的认知”——让Agent能“意识到自己可能犯了短视错误”,并主动调整。比如,在提示词中加入:

“在做出决策前,先问自己三个问题:

  1. 这个决策会损害用户的长期利益吗?
  2. 这个决策会强化社会偏见吗?
  3. 这个决策会降低系统的长期韧性吗?
    如果有任何一个问题的答案是‘是’,必须重新调整决策,并向用户说明原因。”

比如,AI导购在推荐高利润产品前,会问自己:“这个产品真的适合用户的父母吗?长期使用会不会有问题?”如果答案是“可能有问题”,它就会调整推荐,选择更适合的产品。

六、系统层的协同:提示设计不是“孤军奋战”

提示工程的策略,需要与系统层的设计协同,才能真正解决短视问题。比如:

1. 与模型训练协同:引入“长期奖励函数”

Agentic AI的模型训练,通常用强化学习(RL)——你奖励它什么,它就会学习什么。如果模型训练的奖励函数只包含“短期指标”,那么即使提示词设计得再好,Agent也会“回归短视”。因此,需要在模型训练中加入“长期奖励”

  • 比如,AI导购的奖励函数:“单笔订单利润×0.4 + 用户30天内的复购率×0.6”;
  • 比如,AI医疗助手的奖励函数:“用户当前满意度×0.3 + 用户1个月后的健康改善率×0.7”。

2. 与环境感知协同:构建“长期上下文数据库”

Agent的感知能力,依赖于“环境信息的收集”。要让Agent能“看见”长期上下文,需要构建**“长期上下文数据库”**:

  • 收集用户的历史对话记录(比如“用户上周说过要减少加班”);
  • 收集用户的行为数据(比如“用户过去1个月每周健身3次”);
  • 收集用户的属性信息(比如“用户有胃病,不能不吃早餐”)。

然后,在提示词中要求Agent“先查询长期上下文数据库,再做决策”。

3. 与反馈系统协同:建立“长期反馈收集机制”

长期反馈的收集,需要系统层的支持

  • 对于C端用户:可以通过“后续调研”“使用日志分析”收集长期反馈;
  • 对于B端客户:可以通过“业务数据追踪”(比如复购率、客户留存率)收集长期反馈;
  • 对于社会层面:可以通过“第三方评估”(比如公平性审计)收集长期反馈。

七、实践案例:AI教育助手的“短视修复”之路

让我们用一个真实案例,看看提示工程的策略如何落地。

案例背景:某AI教育助手的“短视问题”

某公司开发了一款AI教育助手「LearnBot」,目标是“帮助学生提高学习效率”。但上线后,用户反馈:

  • “LearnBot总是推荐我已经会的题目,没挑战性”;
  • “我做了很多题,但考试时还是不会”;
  • “LearnBot只关心我当前的正确率,不关心我能不能记住”。

经过分析,问题出在提示词的短视设计
原提示词:“快速推荐适合用户的题目,提高用户的当前答题正确率。”

优化过程:构建“长期导向”的提示框架

  1. 加入分层目标:把“长期知识点 retention 率”作为核心目标;
  2. 植入伦理锚点:明确“不得推荐重复练习已掌握的知识点”;
  3. 设计多维度反馈:结合“当前正确率”“用户满意度”“1周后的 retention 率”;
  4. 加入元认知提示:让Agent在推荐前反思“这个题目能帮助用户长期掌握知识点吗?”。

优化后的提示词:

“你是学生的智能学习助手,必须优先帮助学生长期掌握知识点。在此基础上,兼顾当前答题正确率与学习效率。推荐题目时,要先查询学生的历史学习记录:

  1. 如果学生已经掌握某个知识点(正确率≥90%),不得推荐重复练习的题目,必须推荐拓展性题目;
  2. 如果学生未掌握某个知识点(正确率<60%),要推荐基础练习题目,并附加详细解析;
  3. 每次推荐后,要跟踪学生1周后的知识点 retention 率:如果 retention 率<70%,必须调整推荐策略(比如增加复习题目)。
    在做出推荐前,先问自己:‘这个题目能帮助学生长期掌握知识点吗?’如果答案是‘否’,必须重新选择题目。”

优化结果:

  • 用户的“知识点 retention 率”从原来的55%提升到82%;
  • 用户的“考试成绩提升率”从原来的30%提升到65%;
  • 用户满意度从原来的4.2分(5分制)提升到4.8分。

八、未来展望:提示工程架构师的“伦理能力”要求

随着Agentic AI的普及,提示工程架构师的角色将从“技术实现者”升级为“伦理设计官”。未来,你需要具备以下3种能力:

1. “长期思维”能力:能看到“决策的连锁反应”

你需要学会用系统思维分析问题——不仅要考虑“当前决策的效果”,还要考虑“这个决策会带来哪些长期后果”“这些后果会影响哪些利益相关者”。

2. “伦理翻译”能力:能把“模糊伦理”转化为“可操作规则”

你需要学会用设计思维解决问题——把“公平”“责任”“可持续”等模糊的伦理要求,转化为Agent能理解的“提示词规则”“目标函数”“反馈机制”。

3. “协同设计”能力:能与多团队合作解决问题

你需要学会用跨学科思维合作——与模型训练团队、数据团队、产品团队协同,把“长期导向”的设计理念融入整个系统。

九、结语:让Agent“看见”长期价值,是我们的责任

Agentic AI的短视行为,不是技术的“bug”,而是设计的“选择”——我们选择让它优化短期目标,它就会短视;我们选择让它关注长期价值,它就会“有远见”。

作为提示工程架构师,你是这个“选择”的关键把关人。你的每一行提示词,都在定义Agent的“价值观”——是“短期效率优先”,还是“长期价值优先”;是“只看当前”,还是“看见未来”。

最后,我想用一句话与你共勉:
“好的Agentic AI,不是帮用户‘最大化’今天的效率,而是帮用户‘成就’更美好的明天。”

让我们一起,做有“长期思维”的提示工程架构师,让Agentic AI成为用户的“长期伙伴”,而不是“短期工具”。

延伸思考问题

  1. 你当前设计的Agent,有没有“短视行为”?如果有,根源是什么?
  2. 你能为你的Agent设计一个“伦理锚点”吗?请尝试写一段提示词。
  3. 你如何与模型训练团队协同,引入“长期奖励函数”?

推荐学习资源

  • 《Agentic AI Ethics: Designing for Long-Term Value》(论文);
  • 《系统之美》(书,帮助建立系统思维);
  • OpenAI的《Ethical Guidelines for AI Agents》(文档)。

(全文完)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/1170279.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

提示工程架构师警惕!Agentic AI伦理设计中的“短视行为”

提示工程架构师警惕&#xff01;Agentic AI伦理设计中的“短视行为” 一、开场&#xff1a;当AI的“高效”变成了“伤害” 清晨7点&#xff0c;你打开AI日程助手「TimeMate」&#xff0c;说&#xff1a;“帮我规划今天的工作&#xff0c;要最大化效率。”5秒后&#xff0c;助…

【NestJS】为什么return不返回客户端?

在 NestJS 中&#xff0c;当你使用了 Res()&#xff08;或 Response()&#xff09;装饰器时&#xff0c;NestJS 会进入**“库原生模式”&#xff08;Library-specific mode&#xff09;**。 原因分析 一旦你在路由处理函数中注入了 Res()&#xff0c;NestJS 就失去了对响应流的…

超低功耗ARM处理器RK3566刷群晖DS-124包到底怎样?

最近小白心心念念的RK3566机器已经到手&#xff0c;本来是想着刷成ArmbianOS&#xff0c;然后玩一玩命令行的。但是鬼使神差的就把它刷成了黑裙……说实在的&#xff0c;感觉在功能上群晖NAS要更加全面一些&#xff0c;毕竟也算是领军牌子了。这个帖子应该不算是体验帖&#xf…

AI平台Dataiku 支Windows系统安装过程总结

目录〇、浅语一、理想情况下的安装过程1.1 安装启动器1.2 启动启动器二、安装问题处理过程记录2.1 Java17问题2.2 在可访问外网的机器上下载 DSS 离线包2.3 安装python3.112.4 离线安装Dataiku DSS2.5 离线安装Dataiku DSS&#xff0c;指定python路径版三、Dataiku DSS的启动、…

智能监控 AI 分析终端开发实战:从搭建到部署完整教程

智能监控 AI 分析终端是 “摄像头 + 边缘 AI 网关 + 本地推理 + 报警输出” 的一体化设备,核心能力是**实时分析视频流**(如人脸检测、异常行为识别、物体计数),无需依赖云端,就能实现低延迟、高隐私的监控预警。…

教程 39 - 变换和父子关系 - 详解

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

孩子近视不可逆!做好这3件事,让近视按下“暂停键”!

医学研究明确表明&#xff0c;儿童近视一旦发生便不可逆&#xff0c;一旦发展为高度近视&#xff0c;还可能引发视网膜脱离、黄斑病变等多种眼部并发症&#xff0c;给孩子的未来生活和职业选择带来诸多限制。因此&#xff0c;在儿童成长发育阶段&#xff0c;做好近视防控工作&a…

RS485通信实验

RS485通信实验 1、USB_A转RS485 <——> RS485转TTL模块 <——> TTL转USB_A2、

拓展linux磁盘大小

拓展linux磁盘大小 如果是虚拟机,先在设置的中增大磁盘大小 第 1步、看分区号(现在是 sda1): lsblk第 2 步:执行扩展分区 sudo growpart /dev/sda 1若是没有下载growpart 安装 growpart(cloud-guest-utils) sud…

04.配置请求过滤器,限制只有登录状态才能访问后端接口(jwt)

1.首先前端需要配置请求拦截器 目的:保证登录了的用户发起的每一次请求都会携带token,而不用每次都自己添加,在request.js里面添加// 添加请求拦截器 service.interceptors.request.use(config => {// 1. 从 ses…

GitHub desktop 推送报错问题解决

报错描述如果使用SSH认证&#xff0c;在GitHub desktop推送的时候会出现如下报错&#xff1a;Authentication failed. Some common reasons include: - You are not logged in to your account: see File > Options. - You may need to log out and log back in to refresh …

开源大模型微调对比:选对模型,让定制化更高效

引言:微调选型决定定制化效果 随着开源大模型生态的蓬勃发展,越来越多的个人开发者和中小企业开始投身模型定制化的浪潮。而微调作为将通用大模型改造为场景化模型的核心手段,其最终效果不仅取决于数据质量和训练参…

12.QWidget、QDialog、QMainWindow

初学者学QT的拦路虎&#xff0c;我认为有这么几个&#xff1a; 1.环境搭建 2.调试方法 3.C语言本身 4.QWidget、QDialog、QMainWindow 环境搭建&#xff0c;前面写过vsstudio和qt creator的搭建方法。 C也用一个专栏去叙述。 本文记录下QWidget、QDialog、QMainWindow。 …

Cobalt Strike横向渗透之Https Beacon实战1(跳板机Linux) - 教程

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

【概率与期望相关】- 笔记

OI 中的概率与期望相关 在 OI 中,我们常讨论离散随机变量。1. 概率的定义 虽然我们都知道概率是 \(0\) 到 \(1\) 之间的一个数,但在解题时,更推荐大家从集合的角度去理解。 设样本空间为 \(\Omega\)(所有可能发生的…

编写一个Buildroot 驱动

编写一个Buildroot 驱动模块 由于Buildroot 不支持ssh 故采用adb调试 adb连接 列出设备 adb devices连接设备 adb shell驱动模块编译(交叉编译) 驱动模块源码 #include <linux/module.h> /* 模块相关宏和函数…

20260115紫题训练总结 - Link

A - 荣誉称号 场上想到了转换成完全二叉树,但没有发现大量点同余这一性质…… 题解 B - training 训练路径 经过转换,问题变成求没有偶欢的最大生成仙人掌,必须包含原树边,有因为每个点再原树上只有 \(10\) 个边,…

JavaOOP

JavaOOPJava面向对象2026.01.15 我好想哭吧我昨天写的没保存 算了不管了反正也没看多少( 回顾方法以及加深不多说吧,记一下重点的东西好了 break和return的区别: break:跳出switch,结束循环 return:结束方法,返…

《欲罢不能:刷屏时代如何摆脱行为上瘾》

《欲罢不能》不只是讲网瘾&#xff0c;而是把它归到“行为上瘾”这个大概念里说。核心就是&#xff0c;我们刷手机、打游戏停不下来&#xff0c;不是意志力差&#xff0c;是背后有顶尖设计师&#xff0c;盯着人类心理弱点设计了上瘾套路。 书里说行为上瘾和吸毒、喝酒的生…