【企业AI战略】扩展AI:AI稳定型与AI加速型组织的战略
新的GenAI基础模型每两天半发布一次,但几乎一半的CIO表示,AI未能达到预期的投资回报率(ROI)。
通过确定组织的AI进展速度并采取正确的下一步行动来应对这一矛盾
扩展人工智能需要对组织进行盘点
人工智能已经取得了长足的进步,每两天半就会发布一次新的GenAI基础模型。尽管创新速度很快,但近一半的首席信息官表示,人工智能没有达到投资回报率的预期。这种二分法给组织带来了一个独特的挑战:在人工智能的炒作和潜力与实现切实成果的现实之间取得平衡。74%的首席执行官认为人工智能将在2024年对其行业产生重大影响,高于2023年的59%,这一事实突显了这种紧迫性。不用说,理解和实施人工智能战略比以往任何时候都更加重要。
本文来源于Gartner IT Symposium/Xpo 2024的主题演讲,强调了人工智能领域的双重性质。随着人工智能技术的快速发展,对扩展人工智能感兴趣的组织必须根据自己的速度和野心决定是采用人工智能稳定还是人工智能加速的方法。
为了扩大AI规模并推动AI的采用,首先要明确你的AI目标。
尽管你的组织可能只是在进行其中的第二场比赛,但了解这两者都非常重要。
【生成型人工智能】银行业中的生成型人工智能(Gen AI),影响是什么?
没有任何银行能逃脱#GenAI海啸的影响,但目前对其影响和应优先关注的事项仍存在很大困惑。以下是我对最佳实践的看法。
清除困惑的第一步是理解哪些是主要的影响领域及其原因。这不仅仅是关于用例的问题,更是关于破坏和转型。
这是我的优先清单:
【生成式AI】生成式AI为各职能领域提供创造价值的机会
生成式AI为各职能领域提供创造价值的机会
按职能划分的生成式AI应用场景(非详尽列举)
【观点】Anthropic的研究提供了一个清新且理性的关于AI的视角
Anthropic的研究提供了一个清新且理性的视角……
Anthropic的研究强调以实际应用和用例为导向的解决方案,尽可能简单,同时注重可解释性、可观察性和可检查性。
它警告不要在不了解其内部工作原理的情况下采用某些框架,因为这可能导致意想不到的行为。
尽管AI代理有其用处,但它们并非总是最佳解决方案——工作流往往更加合适。
有些公司可能推销特定的框架来销售其技术堆栈,而忽视最佳实践,或者在实现业务目标时妥协,未选择最优化和最合适的路径。
他们的主要观察是,最成功的实施往往避免使用复杂的框架或专业库,而是倾向于选择简单、可组合的模式。
在使用大型语言模型(LLM)时,他们建议从最简单的解决方案开始,只有在必要时才增加复杂度。
有时候,这意味着根本不构建代理系统,因为这些系统通常通过牺牲延迟和成本来换取更好的任务执行效果,而这一权衡应该仔细考虑。
【观点】生成式AI在管理中的应用
还在摸索如何在工作中使用AI吗?这里有50个应用场景供你参考!
作为一名管理者,你如何使用生成式AI来提升工作效率?
以下是50个应用场景:
- 员工管理
• 起草绩效评估
• 创建员工成就的表彰信息
• 生成入职计划和检查清单
• 开发培训内容大纲
• 提供冲突解决建议
- 数据分析
• 解释数据分析技术
• 提供电子表格公式指导
• 建议数据可视化工具
• 帮助解读数据发现
• 提供报告模板
- 沟通
• 指导反馈的传递方式
• 提出有效会议的策略
• 生成演讲大纲
• 提供清晰、有影响力写作的建议
• 提供谈判策略指导
- 工具
• 推荐提高效率的软件工具
• 提供常用软件教程
• 提供数字安全实践建议
• 指导如何整合新技术
• 推荐提高生产力的移动应用
【观点】Meta的Yann LeCun预测,在五年内将出现“AI架构的新范式”,并且将迎来“机器人技术的十年”。
Meta的首席AI科学家Yann LeCun表示,在未来三到五年内,将会出现“AI架构的新范式”,这一新范式将远远超越现有AI系统的能力。
LeCun还预测,未来几年可能是“机器人技术的十年”,AI与机器人技术的进步将结合起来,释放出一种新的智能应用类别。
在周四的达沃斯“技术辩论”环节上,LeCun表示,目前我们所拥有的“AI范式”——即生成式AI和大型语言模型(LLM)——实际上并未达到太多的能力。它们确实有用,但在许多方面仍存在局限。
LeCun说道:“我认为当前[LLM]范式的使用寿命相对较短,可能只有三到五年。我认为五年后,没有人会再把它们作为AI系统的核心组件使用,至少不会像现在这样使用。我认为……我们将会看到一种新的AI架构范式的出现,这种架构可能没有当前AI系统的局限。”
这些“局限”阻碍了机器实现真正智能的行为,LeCun解释道,主要有四个关键原因:缺乏对物理世界的理解;缺乏持久记忆;缺乏推理能力;缺乏复杂的规划能力。
“LLM实际上无法做这些事情,”LeCun说。“所以,在接下来的几年里,AI将会经历另一次革命。我们可能得改变它的名字,因为它可能不再像今天我们理解的那样是生成式的。”
“世界模型”
【AI视野】SFT记忆,RL泛化
谷歌DeepMind发布的新论文表明,强化学习(RL)在跨领域中具有泛化能力,而监督微调(SFT)主要是记忆。👀
实验设置
1️⃣ 模型与任务:Llama-3.2-Vision-11B;GeneralPoints(文本/视觉算术游戏);V-IRL(现实世界的机器人导航)
2️⃣ 设置:仅SFT vs 仅RL vs 混合(SFT→RL)管道 + RL变体:1/3/5/10次验证迭代(“拒绝采样”)
3️⃣ 指标:分布内(ID)与分布外(OOD)表现
4️⃣ 消融实验:直接将RL应用于基础的Llama-3.2模型,而不进行SFT初始化;测试极端的SFT过拟合场景;比较计算成本与性能提升
洞察
💡 基于结果的奖励是有效RL训练的关键
🎯 当基础模型不遵循指令时,SFT对于RL训练是必要的
🔢 多次验证/拒绝采样有助于将泛化提升约6%
🧮 使用基于结果/规则的奖励,注重正确性
🧠 RL在基于规则的任务中(文本与视觉)能够泛化,学习可转移的原则
📈 SFT导致记忆化,并在分布外场景中表现不佳