【前端开发】JavaScript框架的进步:2025年React、NextJS、Angular、Vue.js和Svelte的新进展
太长;未阅读:
2025年,React、Next.js、Angular、Vue.js和Svelte等主要JavaScript框架引入了增强web开发的尖端功能。React在并发模式下的加载速度提高了40%,而Next.js则彻底改变了服务器端渲染和代码优化。Angular专注于增量水合的开发人员体验,Vue.js拥有改进的开发人员工具和组件API标准化,Svelte为快速加载提供零运行时间编译。这些框架强调性能、TypeScript集成和服务器端渲染,塑造了web应用程序的未来。
JavaScript框架将在2025年彻底改变游戏规则,我很高兴能分析一下正在发生的事情。服务器优先方法的最新发展改变了我们构建web应用程序的方式。
React、Next.js、Angular、Vue.js和Svelte不再只是工具,它们正在塑造web开发的未来。
【大型语言模型】建立有效的智能体
在过去的一年里,我们与数十个团队合作,在各个行业构建了大型语言模型(LLM)智能体。一直以来,最成功的实现并没有使用复杂的框架或专门的库。相反,他们用简单、可组合的模式进行构建。
在这篇文章中,我们分享了我们从与客户和构建智能体合作中学到的东西,并为开发人员提供了构建有效智能体的实用建议。
什么是智能体?
“Agent”可以通过多种方式定义。一些客户将智能体定义为在长时间内独立运行的完全自主的系统,使用各种工具来完成复杂的任务。其他人则使用该术语来描述遵循预定义工作流的更规范的实现。在Anthropic,我们将所有这些变体归类为智能体系统,但在工作流和智能体之间进行了重要的架构区分:
- 工作流是通过预定义的代码路径编排LLM和工具的系统。
- 另一方面,智能体是LLM动态指导自己的流程和工具使用的系统,保持对它们如何完成任务的控制。
下面,我们将详细探讨这两种类型的智能体系统。在附录1(“实践中的智能体”)中,我们描述了客户发现使用这些系统具有特殊价值的两个领域。
【ChatGPT】ChatGPT与置信度评分
在这篇文章中,我们将着眼于使用通过OpenAI API可用的置信度分数。
在第一部分中,我们将从对这些分数的温和探索开始,并在自定义聊天界面的帮助下了解它们的含义。
在第二节中,我们将探讨在代码中使用置信度得分。
探索“信心”
首先,快速入门LLM在其响应中为每个令牌做了什么:
- 该模型为其词汇表中的每个标记输出一个值(~100000个值)
- 然后,这些值被转化为我们(怀疑地)称之为“概率”的值。这些价值观是本文的重点。
- 然后以概率方式选择单个令牌(有时是具有最高值的令牌,有时不是)并在响应中使用
现在,让我们对一些术语进行排序:我们在这篇文章中使用的值并不是真正的“概率”(在“某事发生的可能性有多大”的意义上),也不是任何有意义的“信心”。它们只是LLM输出的数字,经过调整使其为正并加1(对于数学家来说,这足以获得任何一组数字的标签“概率分布”)。
因此,你可以将“概率”添加到术语列表中,这些术语在学术界意味着一件事,但在现实世界中却略有不同,导致广泛的误解(以及“理论”、“意义”等)。
【RAG架构】RAG的四个层次——微软的研究
改进检索增强生成(RAG)涉及基于用户意图和关注上下文对查询进行分类。还利用SLM和微调来提供更准确和相关的结果。
简而言之
选择正确的RAG(检索增强生成)架构主要取决于具体的用例和实现要求,确保系统与任务需求保持一致。
Agent RAG的重要性将越来越高,与Agent X的概念相一致,其中Agent能力嵌入个人助理、工作流程和流程中。
在这里,“X”代表了代理系统的无限适应性,实现了无缝的任务自动化和跨不同环境的知情决策,以提高组织效率和自主性。
综合不同的文档源对于有效解决复杂的多部分查询至关重要。
介绍
提供准确的RAG实施的挑战包括检索相关数据、准确解释用户意图,以及利用LLM的推理能力完成复杂任务。
推理可以通过像ReAct这样的RAG代理方法来增强,在这种方法中,可以创建事件的推理和行为序列。
我从这项研究中发现了一个有趣的事实,即它指出没有一种单一的解决方案适用于所有数据增强的LLM应用程序。
上下文是指围绕对话的信息,帮助人工智能理解用户的意图并提供相关、连贯的回应。
这包括用户之前的输入、当前任务、环境以及可能影响对话的任何外部数据等因素。
【RAG架构】忘记RAG,未来是RAG融合
搜索的下一个前沿:检索增强生成与互序融合和生成查询
【RAG架构】RAG的最佳实践
RAG的过程很复杂,包含许多组件。我们如何确定现有的RAG方法及其最佳组合,以确定最佳的RAG实践?
本文介绍了一项名为“搜索增强生成检索的最佳实践”的新研究。本研究旨在解决这个问题。
本文主要分为四个部分。首先,介绍了典型的RAG工艺。接下来,它介绍了每个RAG模块的最佳实践。然后,它提供了一个全面的评估。最后,它分享了我的想法和见解,并以总结结束。
典型RAG工作流程
【LLM应用架构】Apache Kafka+矢量数据库+LLM=实时GenAI
生成式人工智能(GenAI)实现了先进的人工智能用例和创新,但也改变了企业架构的样子。大型语言模型(LLM)、矢量数据库和检索增强生成(RAG)需要新的数据集成模式和数据工程最佳实践。Apache Kafka和Apache Flink的数据流在大规模实时摄取和管理传入数据集、连接各种数据库和分析平台以及分离独立业务部门和数据产品方面发挥着关键作用。这篇博客文章探讨了事件流和传统请求-响应API和数据库之间可能的架构、示例和权衡。
(最初发布在Kai Waehner的博客上:“Apache Kafka+矢量数据库+LLM=实时GenAI”……
【编程语言】2024 年最热门的编程语言 ,Typescript 和 Rust 跻身新星之列
欢迎来到IEEE Spectrum第11届最受欢迎编程语言年度排名。与往常一样,我们结合来自不同来源的多个指标来创建三个元排名。“Spectrum”排名侧重于典型IEEE成员的个人资料,“Trending”排名旨在发现符合时代精神的语言,“Jobs”排名衡量雇主的需求。
【聊天机器人】为什么你不能信任聊天机器人——现在比以往任何时候都更重要即使在语言模型扩大之后,它们在简单的任务上也被证明是不可靠的
ChatGPT等人工智能聊天机器人和其他由大型语言模型驱动的应用程序已经得到了广泛的应用,但它们的可靠性却臭名昭著。一个常见的假设是,扩大驱动这些应用程序的模型将提高其可靠性,例如,通过增加它们训练的数据量或用于处理信息的参数数量。然而,根据一项新的研究,这些语言模型的更新和更大版本实际上变得更加不可靠,而不是更少。
大型语言模型(LLM)本质上是智能手机用来预测一个人正在键入的单词其余部分的自动补全功能的超级版本。ChatGPT,也许是最著名的LLM驱动的聊天机器人,已经通过了法学院和商学院的考试,成功回答了软件编码工作的面试问题,撰写了房地产清单,并开发了广告内容。
但法学硕士经常犯错误。例如,6月份的一项研究发现,ChatGPT在生成函数式代码方面取得了极其广泛的成功,成功率从微不足道的0.66%到89%不等,具体取决于任务的难度、编程语言和其他因素。
研究团队已经探索了一系列策略,使LLM更可靠。这些包括增加模型的训练数据量或计算能力,以及使用人类反馈来微调模型并提高其输出。随着时间的推移,LLM的性能总体上有所提高。例如,早期的LLM在简单的加法(如“20+183”)上失败了。现在LLM成功地执行了涉及50位以上数字的加法。
【 AI Bot Service 】设计用户体验
您可以创建具有各种功能的机器人,如文本、按钮、图像、以旋转木马或列表格式显示的富卡等。然而,每个渠道,如脸书、Slack等,最终都控制着其消息客户端呈现功能的方式。即使多个通道支持一个功能,每个通道也可能以略微不同的方式渲染该功能。如果消息包含通道本机不支持的功能,通道可能会尝试将消息内容向下呈现为文本或静态图像,这可能会显著影响消息在客户端上的外观。在某些情况下,频道可能根本不支持特定功能。例如,GroupMe客户端无法显示键入指示符。
丰富的用户控制
富用户控件是常见的UI控件,如按钮、图像、旋转木马和菜单,机器人向用户展示这些控件,用户通过这些控件来传达选择和意图。机器人可以使用一组UI控件来模仿应用程序,甚至可以在应用程序中嵌入运行。当机器人嵌入到应用程序或网站中时,它可以使用托管它的应用程序的功能来表示几乎任何UI控件。
应用程序和网站开发人员依靠UI控件使用户能够与他们的应用程序进行交互。这些相同的UI控件在机器人中也很有效。例如,按钮是向用户呈现简单选择的好方法。允许用户通过选择标记为“酒店”的按钮来传达“酒店”比强迫用户键入“酒店”更容易、更快。例如,在移动设备上,选择通常比键入更可取。