由编辑使用 BlueWillow 创建的图像
欢迎来到 KDnuggets 首期的“本周 AI”专刊。此精选的每周更新旨在让您了解人工智能领域迅速发展的最重要进展。从塑造我们对 AI 在社会角色理解的突破性头条新闻,到引发深思的文章、深刻的学习资源,以及推动知识边界的重点研究,这篇文章提供了 AI 当前格局的全面概述。虽然尚未深入细节,但请期待探索反映 AI 广泛和动态本质的众多话题。请记住,这只是许多未来每周更新中的第一个,旨在让您在这一不断发展的领域中保持更新和知情。敬请关注,祝您阅读愉快!
1. 谷歌网络安全证书 - 快速入门网络安全职业。
2. 谷歌数据分析专业证书 - 提升您的数据分析能力
3. 谷歌 IT 支持专业证书 - 支持您的组织的 IT 工作
“头条新闻”部分讨论了过去一周在人工智能领域的最新新闻和发展。信息涵盖从政府的 AI 政策到技术进步以及 AI 领域的企业创新。
拜登-哈里斯政府已从七家领先的 AI 公司——亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI——那里获得了自愿承诺,以确保 AI 技术的安全、保障和透明发展。这些承诺强调了未来 AI 的三个基本原则:安全、保障和信任。这些公司同意在发布前对其 AI 系统进行内部和外部安全测试,分享关于管理 AI 风险的信息,并投资于网络安全。他们还承诺开发技术机制,确保用户知道何时内容是 AI 生成的,并公开报告其 AI 系统的能力、局限性以及适当和不适当使用的领域。这一举措是拜登-哈里斯政府致力于确保 AI 的安全和负责任发展,以及保护美国人免受伤害和歧视的更广泛承诺的一部分。
Stability AI 揭示 Stable Beluga:开放访问语言模型的新强者
Stability AI 和其 CarperAI 实验室宣布推出 Stable Beluga 1 和 Stable Beluga 2 两个强大的开放访问大语言模型(LLMs)。这两个模型在各种基准测试中展现了卓越的推理能力,分别基于原始的 LLaMA 65B 和 LLaMA 2 70B 基础模型。两个模型均通过使用标准 Alpaca 格式的有监督微调(SFT)方法,在新的合成生成数据集上进行了微调。Stable Beluga 模型的训练灵感来源于微软在其论文“Orca: Progressive Learning from Complex Explanation Traces of GPT-4”中使用的方法。尽管训练样本量仅为原始 Orca 论文的十分之一,但 Stable Beluga 模型在各种基准测试中表现出色。截至 2023 年 7 月 27 日,Stable Beluga 2 是排行榜上的顶级模型,而 Stable Beluga 1 排名第四。
Spotify CEO 暗示未来 AI 驱动的个性化和广告功能
在 Spotify 第二季度的财报电话会议上,首席执行官 Daniel Ek 暗示了可能会为流媒体服务引入更多 AI 驱动的功能。Ek 认为 AI 可以用来创建更个性化的体验,总结播客内容和生成广告。他强调了最近推出的 DJ 功能的成功,该功能提供了精选音乐以及关于曲目和艺术家的 AI 驱动评论。Ek 还提到可能会使用生成性 AI 来总结播客内容,使用户更容易发现新内容。此外,Ek 讨论了 AI 生成音频广告的可能性,这可能显著降低广告商开发新广告格式的成本。这些评论正值 Spotify 寻求为 AI 驱动的“文本到语音合成”系统申请专利,该系统可以将文本转换为具有情感和意图的人声音频。
“文章”部分展示了一系列发人深省的人工智能相关文章。每篇文章深入探讨了特定话题,为读者提供了关于 AI 各个方面的见解,包括新技术、革命性方法和开创性工具。
???? ChatGPT 代码解释器:几分钟内完成数据科学工作
这篇 KDnuggets 文章介绍了 ChatGPT 的代码解释器插件,这是一种可以分析数据、编写 Python 代码和构建机器学习模型的工具。作者 Natassha Selvaraj 演示了如何使用该插件来自动化各种数据科学工作流程,包括数据总结、探索性数据分析、数据预处理和构建机器学习模型。代码解释器还可以用于解释、调试和优化代码。Natassha 强调,虽然这个工具功能强大且高效,但它应该作为数据科学任务的基础使用,因为它缺乏领域特定的知识,不能处理存储在 SQL 数据库中的大型数据集。Natassha 建议初级数据科学家和有志于成为数据科学家的人应学习如何利用像代码解释器这样的工具来提高工作效率。
这篇 KDnuggets 文章讨论了微软研究人员提出的一种新型 AI 训练方法,该方法涉及使用合成教材而非大量数据集。研究人员将一个名为 Phi-1 的模型完全在自制教材上进行训练,发现它在 Python 编程任务中的表现非常出色,尽管它的规模明显小于 GPT-3 等模型。这表明,训练数据的质量可能与模型的规模同样重要。Phi-1 模型在通过合成练习和解决方案进行微调后,性能也有所提升,表明有针对性的微调可以提高模型的能力超越其专门训练的任务。这表明,这种基于教材的方法可能会通过将重点从创建更大模型转向策划更好的训练数据,从而彻底改变 AI 训练。
最新的提示工程技术巧妙地将不完美的提示转化为卓越的生成式 AI 互动
这篇文章讨论了一种新型的提示工程技术,鼓励使用不完美的提示。作者认为,追求完美的提示可能适得其反,往往更实际的做法是追求“足够好”的提示。生成式 AI 应用程序使用概率和统计方法解析提示并生成响应。因此,即使使用相同的提示多次,AI 也可能每次生成不同的响应。作者建议,与其努力寻求完美的提示,不如利用不完美的提示并将它们汇总以创建有效的提示。文章引用了一项名为“随便问我什么:一种简单的提示语言模型策略”的研究,该研究提出了一种通过汇总多个有效但不完美的提示的预测来将不完美提示转化为强健提示的方法。
“学习资源”部分列出了对那些渴望扩展 AI 知识的人员有用的教育内容。这些资源包括从全面的指南到专业课程,适用于 AI 领域的初学者和经验丰富的专业人士。
Cohere 的 LLM 大学是一个为对自然语言处理(NLP)和大型语言模型(LLMs)感兴趣的开发者提供的综合学习资源。课程旨在提供坚实的 NLP 和 LLMs 基础,并在此基础上构建实际应用。课程分为四个主要模块:“大型语言模型是什么?”,“使用 Cohere 端点进行文本表示”,“使用 Cohere 端点生成文本”和“部署”。无论你是新的机器学习工程师还是希望扩展技能的经验丰富的开发者,Cohere 的 LLM 大学都提供了一个全面的 NLP 和 LLMs 世界指南。
Google Cloud 发布了生成式 AI 学习路径,这是一个包含从生成式 AI 基础知识到更高级工具(如生成式 AI 工作室)的免费课程合集。学习路径包括七门课程:“生成式 AI 概述”、“大型语言模型简介”、“图像生成简介”、“注意力机制”、“Transformer 模型和 BERT 模型”、“创建图像字幕模型”和“生成式 AI 工作室简介”。这些课程涵盖了包括大型语言模型、图像生成、注意力机制、Transformer 模型、BERT 模型和图像字幕模型在内的多个主题。
“研究聚焦”部分突出了人工智能领域的重要研究。该部分包括突破性的研究、探索新理论以及讨论人工智能领域的潜在影响和未来方向。
???? 大型语言模型在数据科学教育演变中的作用
题为“大型语言模型在数据科学教育演变中的作用”的研究论文讨论了大型语言模型(LLMs)对数据科学家角色和职责的变革性影响。作者认为,大型语言模型的崛起正在将数据科学家的重点从动手编码转移到管理和评估由自动化人工智能系统执行的分析。这种转变需要数据科学教育的重大演变,强调在学生中培养多样化的技能,包括由 LLMs 启发的创造力、批判性思维、受 AI 指导的编程以及跨学科知识。
作者们还提出,大型语言模型(LLMs)在课堂上可以作为互动教学和学习工具发挥重要作用。它们可以促进个性化教育,丰富学习体验。然而,将 LLMs 整合到教育中需要谨慎考虑,以平衡 LLMs 的好处,同时促进人类专业知识和创新。论文建议,数据科学教育的未来很可能涉及人类学习者与 AI 模型之间的共生关系,其中双方相互学习并提升各自的能力。