跳转到主要内容

标签(标签)

资源精选(342) Go开发(108) Go语言(103) Go(99) angular(82) LLM(75) 大语言模型(63) 人工智能(53) 前端开发(50) LangChain(43) golang(43) 机器学习(39) Go工程师(38) Go程序员(38) Go开发者(36) React(33) Go基础(29) Python(24) Vue(22) Web开发(20) Web技术(19) 精选资源(19) 深度学习(19) Java(18) ChatGTP(17) Cookie(16) android(16) 前端框架(13) JavaScript(13) Next.js(12) 安卓(11) 聊天机器人(10) typescript(10) 资料精选(10) NLP(10) 第三方Cookie(9) Redwoodjs(9) LLMOps(9) Go语言中级开发(9) 自然语言处理(9) PostgreSQL(9) 区块链(9) mlops(9) 安全(9) 全栈开发(8) ChatGPT(8) OpenAI(8) Linux(8) AI(8) GraphQL(8) iOS(8) 软件架构(7) Go语言高级开发(7) AWS(7) C++(7) 数据科学(7) whisper(6) Prisma(6) 隐私保护(6) RAG(6) JSON(6) DevOps(6) 数据可视化(6) wasm(6) 计算机视觉(6) 算法(6) Rust(6) 微服务(6) 隐私沙盒(5) FedCM(5) 语音识别(5) Angular开发(5) 快速应用开发(5) 提示工程(5) Agent(5) LLaMA(5) 低代码开发(5) Go测试(5) gorm(5) REST API(5) 推荐系统(5) WebAssembly(5) GameDev(5) CMS(5) CSS(5) machine-learning(5) 机器人(5) 游戏开发(5) Blockchain(5) Web安全(5) Kotlin(5) 低代码平台(5) 机器学习资源(5) Go资源(5) Nodejs(5) PHP(5) Swift(5) 智能体(4) devin(4) Blitz(4) javascript框架(4) Redwood(4) GDPR(4) 生成式人工智能(4) Angular16(4) Alpaca(4) 编程语言(4) SAML(4) JWT(4) JSON处理(4) Go并发(4) kafka(4) 移动开发(4) 移动应用(4) security(4) 隐私(4) spring-boot(4) 物联网(4) nextjs(4) 网络安全(4) API(4) Ruby(4) 信息安全(4) flutter(4) 专家智能体(3) Chrome(3) CHIPS(3) 3PC(3) SSE(3) 人工智能软件工程师(3) LLM Agent(3) Remix(3) Ubuntu(3) GPT4All(3) 软件开发(3) 问答系统(3) 开发工具(3) 最佳实践(3) RxJS(3) SSR(3) Node.js(3) Dolly(3) 移动应用开发(3) 低代码(3) IAM(3) Web框架(3) CORS(3) 基准测试(3) Go语言数据库开发(3) Oauth2(3) 并发(3) 主题(3) Theme(3) earth(3) nginx(3) 软件工程(3) azure(3) keycloak(3) 生产力工具(3) gpt3(3) 工作流(3) C(3) jupyter(3) 认证(3) prometheus(3) GAN(3) Spring(3) 逆向工程(3) 应用安全(3) Docker(3) Django(3) R(3) .NET(3) 大数据(3) Hacking(3) 渗透测试(3) C++资源(3) Mac(3) 微信小程序(3) Python资源(3) JHipster(3) 大型语言模型(2) 语言模型(2) 可穿戴设备(2) JDK(2) SQL(2) Apache(2) Hashicorp Vault(2) Spring Cloud Vault(2) Go语言Web开发(2) Go测试工程师(2) WebSocket(2) 容器化(2) AES(2) 加密(2) 输入验证(2) ORM(2) Fiber(2) Postgres(2) Gorilla Mux(2) Go数据库开发(2) 模块(2) 泛型(2) 指针(2) HTTP(2) PostgreSQL开发(2) Vault(2) K8s(2) Spring boot(2) R语言(2) 深度学习资源(2) 半监督学习(2) semi-supervised-learning(2) architecture(2) 普罗米修斯(2) 嵌入模型(2) productivity(2) 编码(2) Qt(2) 前端(2) Rust语言(2) NeRF(2) 神经辐射场(2) 元宇宙(2) CPP(2) 数据分析(2) spark(2) 流处理(2) Ionic(2) 人体姿势估计(2) human-pose-estimation(2) 视频处理(2) deep-learning(2) kotlin语言(2) kotlin开发(2) burp(2) Chatbot(2) npm(2) quantum(2) OCR(2) 游戏(2) game(2) 内容管理系统(2) MySQL(2) python-books(2) pentest(2) opengl(2) IDE(2) 漏洞赏金(2) Web(2) 知识图谱(2) PyTorch(2) 数据库(2) reverse-engineering(2) 数据工程(2) swift开发(2) rest(2) robotics(2) ios-animation(2) 知识蒸馏(2) 安卓开发(2) nestjs(2) solidity(2) 爬虫(2) 面试(2) 容器(2) C++精选(2) 人工智能资源(2) Machine Learning(2) 备忘单(2) 编程书籍(2) angular资源(2) 速查表(2) cheatsheets(2) SecOps(2) mlops资源(2) R资源(2) DDD(2) 架构设计模式(2) 量化(2) Hacking资源(2) 强化学习(2) flask(2) 设计(2) 性能(2) Sysadmin(2) 系统管理员(2) Java资源(2) 机器学习精选(2) android资源(2) android-UI(2) Mac资源(2) iOS资源(2) Vue资源(2) flutter资源(2) JavaScript精选(2) JavaScript资源(2) Rust开发(2) deeplearning(2) RAD(2)

两周前,我们发布了Dolly,这是一个大型语言模型(LLM),经过不到30美元的训练,可以展示类似ChatGPT的人机交互(又称指令跟随)。今天,我们将发布Dolly 2.0,这是第一个开源的指令遵循LLM,它对授权用于研究和商业用途的人工生成指令数据集进行了微调。

Dolly 2.0是一个基于EleutherAI pythia模型家族的12B参数语言模型,专门针对Databricks员工众包的新的、高质量的人工生成指令跟踪数据集进行了微调。

我们正在开源Dolly 2.0的全部内容,包括训练代码、数据集和模型权重,所有这些都适合商业使用。这意味着任何组织都可以创建、拥有和定制功能强大的LLM,这些LLM可以与人对话,而无需为API访问或与第三方共享数据付费。

databricks-doolly-15k数据集

databricks-doolly-15k包含15000个高质量的人工生成提示/响应对,专门为指令调优大型语言模型而设计。根据databricks-doolly-15k(Creative Commons Attribution ShareAlike 3.0 Unported License)的许可条款,任何人都可以出于任何目的使用、修改或扩展此数据集,包括商业应用程序。

据我们所知,该数据集是第一个开源的、人工生成的指令数据集,专门设计用于使大型语言模型展示ChatGPT的神奇交互性。databricks-doolly-15k由5000多名databricks员工在2023年3月和4月期间撰写。这些培训记录是自然的、富有表现力的,旨在代表从头脑风暴、内容生成到信息提取和总结的广泛行为。

我们为什么要创建一个新的数据集?

我们一发布Dolly 1.0,就被想试用它的人的请求淹没了。我们一直在问的第一个问题是“我能在商业上使用这个吗?”

创建Dolly 1.0或LLM之后的任何指令的关键步骤是在指令和响应对的数据集上训练模型。Dolly 1.0是使用斯坦福大学Alpaca团队使用OpenAI API创建的数据集以30美元的价格培训的。该数据集包含来自ChatGPT的输出,正如斯坦福大学团队指出的那样,服务条款旨在阻止任何人创建与OpenAI竞争的模型。因此,不幸的是,这个常见问题的答案是,“可能不是!”

据我们所知,所有现有的众所周知的指令遵循模型(Alpaca、Koala、GPT4All、Vicuna)都受到这一限制,禁止商业使用。为了解决这个难题,我们开始寻找方法来创建一个不被商业使用“污染”的新数据集。

我们是怎么做到的?

我们从OpenAI的研究论文中知道,最初的InstructGPT模型是在由13000个指令跟随行为演示组成的数据集上训练的。受此启发,我们开始考虑是否可以在Databricks员工的领导下取得类似的结果。

事实证明,生成13000个问题和答案比看起来更难。每个答案都必须是原创的。它不能从ChatGPT或网络上的任何地方复制,否则会污染我们的数据集。这似乎令人望而生畏,但Databricks有5000多名员工对LLM非常感兴趣。因此,我们认为我们可以在他们中进行众包,以创建一个比40个标签商为OpenAI创建的数据集质量更高的数据集。但我们知道他们都很忙,都有全职工作,所以我们需要激励他们这样做。

我们举办了一场比赛,前20名的贴标工将获得一个大奖。我们还概述了7项非常具体的任务:

  • 公开问答:例如,“人们为什么喜欢喜剧电影?”或“法国首都是什么?”在某些情况下,没有正确的答案,而在另一些情况下,这需要借鉴对世界的了解。
  • 封闭式问答:这些问题只能使用参考文本中包含的信息来回答。例如,如果维基百科上有一段关于原子的话,人们可能会问,“原子核中质子和中子的比例是多少?”
  • 从维基百科中提取信息:在这里,注释者会从维基百科中复制一段文字,并从文章中提取实体或其他事实信息,如重量或测量值。
  • 总结维基百科的信息:为此,注释者提供了维基百科的一段文字,并被要求将其提炼成一个简短的摘要。
  • 脑力激荡:这项任务要求开放式思维和相关的可能选项列表。例如,“这个周末我可以和朋友们一起做一些有趣的活动吗?”。
  • 分类:在这项任务中,注释者被要求对类别成员做出判断(例如,列表中的项目是动物、矿物还是蔬菜),或者判断短文的属性,例如影评的情感。
  • 创造性写作:这项任务包括写一首诗或一封情书。

Example of Open QA in databricks-dolly-15k

How do I build a campfire?

Safety should always come first when starting a campfire. Ensure you have water or another way to extinguish your fire readily available. Use a campfire ring, pit, or clear a large area around your campfire location. Also, make sure campfires are permitted in your area.

With safety out of the way, all a fire needs are heat, fuel, and oxygen. Any combustible material will start a fire, but good campfire fuel sources include tinder, kindling, and dry logs.

Use stuff like dry pine needles, dry leaves, grasses, and wood shavings for tinder. You could also use newspaper (or any paper), dryer lint, or cardboard. For kindling, use smaller pieces of wood, such as twigs and sticks no thicker than 1 inch in diameter (about the thickness of your thumb).

Dry or well-seasoned logs will ensure a good burn. Stack the wood in a way that guarantees oxygen can easily reach your flame. Many prefer a teepee or log cabin stacking design. Now, use a heat source to create a flame or spark and apply this to your tinder. Once the tinder combusts, it should light the kindling, and the kindling should eventually ignite your logs. If all goes well, you should now be enjoying your campfire.

Example of Brainstorming in databricks-dolly-15k

Instead of making a peanut butter and jelly sandwich, what else could I combine peanut butter with in a sandwich? Give five ideas.

Instead of jelly, try one of the following with peanut butter in a sandwich:

1. Honey

2. Raisins

3. Fruit preserves

4. Bananas

5. Sliced apples

起初,我们对能否获得10000个结果持怀疑态度。但随着每晚排行榜的游戏化,我们在一周内打破了15000个结果。由于担心影响我们的生产力,我们结束了比赛。

我们创造商业可行模式的历程

我们还想生产一个可以在商业上使用的开源模型。尽管databricks-dolly-15k远小于训练dolly 1.0的数据集Alpaca,但基于 EleutherAI’s pythia-12b,的dolly 2.0模型表现出了高质量的指令跟随行为。事后看来,这并不奇怪。最近几个月发布的许多指令调优数据集都包含合成数据,其中通常包含幻觉和事实错误。

另一方面,databricks-doolly-15k是由专业人员生成的,质量很高,并且包含大多数任务的长答案。

您可以亲眼看到Dolly 2.0如何用于摘要和内容生成的一些示例。根据我们最初的客户反馈,很明显,这样的功能将在整个企业中得到广泛的应用。

Dolly 2.0总结了Databricks文档

Instruction

Response

What is the default configuration for new DBSQL warehouses?

Input:

Databricks SQL Serverless supports serverless compute. Admins can create serverless SQL warehouses (formerly SQL endpoints) that enable instant compute and are managed by Databricks. Serverless SQL warehouses use compute clusters in your Databricks account. Use them with Databricks SQL queries just like you normally would with the original customer-hosted SQL warehouses, which are now called classic SQL warehouses. Databricks changed the name from SQL endpoint to SQL warehouse because, in the industry, endpoint refers to either a remote computing device that communicates with a network that it's connected to, or an entry point to a cloud service. A data warehouse is a data management system that stores current and historical data from multiple sources in a business friendly manner for easier insights and reporting. SQL warehouse accurately describes the full capabilities of this compute resource. If serverless SQL warehouses are enabled for your account, note the following: New SQL warehouses are serverless by default when you create them from the UI. New SQL warehouses are not serverless by default when you create them using the API, which requires that you explicitly specify serverless. You can also create new pro or classic SQL warehouses using either method. You can upgrade a pro or classic SQL warehouse to a serverless SQL warehouse or a classic SQL warehouse to a pro SQL warehouse. You can also downgrade from serverless to pro or classic. This feature only affects Databricks SQL. It does not affect how Databricks Runtime clusters work with notebooks and jobs in the Data Science & Engineering or Databricks Machine Learning workspace environments. Databricks Runtime clusters always run in the classic data plane in your AWS account. See Serverless quotas. If your account needs updated terms of use, workspace admins are prompted in the Databricks SQL UI. If your workspace has an AWS instance profile, you might need to update the trust relationship to support serverless compute, depending on how and when it was created.

By default, when you create a new DBSQL warehouse using the UI, it will be a serverless SQL warehouse. However, when creating the same using the API, you will have to explicitly specify that it is a pro SQL warehouse.

 Dolly 2.0 generates content for a tweet

Instruction

Response

Write me a tweet about the launch of Dolly 2.0, our new LLM.

Dolly 2.0 is here 🤩

We've upgraded our LLM, making it more efficient, more powerful, and more accessible to a broader audience.

Learn more ⬇️

https://t.co/KxzT3HXCPb

真正开放的大型语言模型

我们多次从客户那里听说,拥有他们的模型将为他们提供最佳服务,使他们能够为特定领域的应用程序创建更高质量的模型,而无需将敏感数据移交给第三方。

我们还认为,偏见、问责制和人工智能安全等重要问题应该由广泛的不同利益相关者群体来解决,而不仅仅是少数大公司。开源数据集和模型鼓励评论、研究和创新,这将有助于确保每个人都能从人工智能技术的进步中受益。

作为一种技术和研究人工制品,我们不希望Dolly在有效性方面达到最先进的水平。然而,我们确实预计Dolly和开源数据集将作为大量后续工作的种子,这些工作可能有助于引导更强大的语言模型。

我今天该怎么开始?

要下载Dolly 2.0模型权重,只需访问Databricks Hugging Face页面,并访问Databricks实验室上的Dolly repo下载Databricks-doolly-15k数据集。加入我们的网络研讨会,了解如何为您的组织利用LLM。

资源