每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
下载: GitHub - ibm-granite/granite-code-models: Granite Code Models: A Family of Open Foundation Models for Code Intelligence
开源大型语言模型(LLMs)并非易事。就拿开源倡议组织(OSI)来说,他们已经花了近两年时间致力于开发一个与AI兼容的开源定义。一些公司——例如Meta——声称已经开源了他们的LLMs(实际上并没有)。但现在,IBM已经实际行动起来。
IBM通过使用来自公开可用数据集的预训练数据来管理Granite代码的开源,例如GitHub Code Clean、Starcoder数据、公开代码库和GitHub问题。简而言之,IBM为避免版权或法律问题付出了极大的努力。Granite Code Base模型训练在3至4TB的代码数据和自然语言代码相关数据集上。
所有这些模型都在Apache 2.0许可下获得授权,用于研究和商业用途。正是最后一个词——商业——阻止了其他主要LLMs的开源。没有其他人想要分享他们的LLM宝藏。
但正如IBM研究部首席科学家Ruchir Puri所说:“我们正在通过发布性能最高、成本最有效的代码LLMs,改变软件的生成式AI格局,使开放社区能够无限制地创新。”
或许没有限制,但这并不意味着没有特定的应用目标。
正如IBM生态系统总经理Kate Woolley去年所言,这些模型并不是“试图成为面向所有人的所有事物。这不是关于为你的狗写诗。这是关于可以调整的、非常针对我们希望企业使用的商业用例的精选模型。具体来说,它们用于编程。”
这些仅限解码器的模型,训练覆盖了116种编程语言的代码,从30亿到340亿参数不等。它们支持许多开发者用途,从复杂的应用现代化到内存受限的设备上的任务。
IBM已经在其IBM Watsonx代码助手(WCA)产品中内部使用了这些LLMs,例如用于IT自动化的WCA for Ansible Lightspeed和用于现代化COBOL应用程序的WCA for IBM Z。虽然并非每个人都负担得起Watsonx,但现在任何人都可以使用IBM和Red Hat的InstructLab来操作Granite LLMs。
正如Red Hat的高级副总裁兼首席产品官Ashesh Badani所说,InstructLab将“降低面向混合云的GenAI的许多障碍,从有限的数据科学技能到所需的庞大资源。”其目的是降低希望使用LLMs的开发者的入门级别。
有多低?正如Matt Hicks在Red Hat峰会上所说:“就在一年前,还需要配备高端、相当奇特的硬件的功能,现在可以在笔记本电脑上运行。曾花费数亿美元的训练技术,现在只需几千美元就能复制。”
例如,除了InstructLab,你还可以使用Ollma在本地运行LLMs。正如Bala Priya C在KDnuggets中解释的那样,“使用Ollma,运行LLM所需的一切——模型权重和所有配置——都打包在一个Modelfile中。想象一下LLMs的Docker。”这些模型可在Hugging Face、GitHub、Watsonx.ai和Red Hat企业Linux (RHEL) AI等平台上获得。
IBM预计,程序员在使用Granite LLMs编写代码的同时,将通过使用这些LLMs来创建测试、发现和修复bug,节省时间和精力。“开发
者日常工作中的许多平凡但必不可少的任务——从生成单元测试到编写文档或进行漏洞测试——都可以通过这些模型自动化。”
此外,IBM认为Granite模型因其明确的许可和训练方式,以及已清洁和过滤了仇恨、滥用和粗俗语言的数据,对开发者有所帮助的同时,也能带来商业利益。
因此,如果你的公司因法律原因犹豫不决地探索使用AI构建程序,IBM现在为你提供了改进软件开发工作所需的开源工具。尝试一下吧。你们中的一些人将会用这些Granite块建造伟大的东西。