每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
随着人工智能越来越多地融入商业运营和日常生活,公司必须意识到潜在风险并遵守当地法律,否则可能面临严厉的后果,包括法律诉讼和巨额罚款。
虽然跟上风险变化不易,但却是必要的。位于沙特阿拉伯利雅得的公司SAIF CHECK (https://www.saifcheck.ai/)使用Meta Llama 3构建了一个模型评估系统,帮助解决这一挑战。SAIF CHECK与中东和北非地区的客户合作,提供评估、审计和认证服务,帮助公司检查其AI模型在法律、监管、隐私和数据安全方面的风险。
公司的一大工作部分是扫描全球监管环境,然后创建、获取和整理描述这些监管环境的具体文档。SAIF CHECK将这些发现整合到其不断增长的知识库中,涵盖各种监管领域。基于Llama 3的系统能够快速更新综合知识库,使机器代理能够理解客户AI模型的环境及其监管环境。通过使用在大量AI法规语料库上训练的检索增强生成(RAG)框架,该系统支持简便的对话查询,能够对用户的监管问题给出相关答案。
“SAIF CHECK的目标是使模型评估成为一个技术或非技术用户都能完成的对话工作流程,”SAIF CHECK的创始人兼CEO Shaista Hussain博士说,“我们已将Llama 3集成到一个系统中,该系统设计用于保留客户的独特业务背景(运营国家、监管机构),同时从多种来源检索和综合信息。”
保持上下文的幽灵注意力
SAIF CHECK团队首次关注到Llama是在阅读了2023年Llama 2团队发表的论文时。Hussain表示,他们特别感兴趣于Llama团队解决对话AI系统常见问题的方法——这些系统往往在对话过程中会忘记上下文。例如,如果告诉AI模型只用俳句回复,它可能在几次对话后就忘记这个初始指令,除非每次新请求时重复指令。重复指令会占用宝贵的tokens,限制对话的整体长度。
为解决这一问题,Llama团队开发了一种名为幽灵注意力(GAtt)的训练技术,使用人类反馈的强化学习来微调模型的响应,牢记初始指令。结果是,AI模型在多轮对话中更能保持初始指令。
“因为我们的AI模型评估调查在多次运行中进行,我们利用Llama的GAtt机制,帮助控制多轮对话的流程,”Hussain说,“通过这样做,我们的平台可以为用户提供更精确和信息丰富的响应,提高我们服务的输出质量。”
为了定制Llama以适应其用例,SAIF CHECK通过加法微调过程配置了多层。使用Llama 3 Instruct,生成层接收用户的提示和上下文,其输出被输入一个受SAIF CHECK综合知识库中各种监管机构和国家特定监管文档训练的监管分类器。这使得模型能够将提示和上下文分类到特定的国家和监管机构中。
通过伦理对齐建立信心
在了解了用于训练Llama的负责任AI原则后,团队决定使用Llama模型进行文本生成。Meta在蓝队和红队对其Llama模型进行显著努力,这让SAIF CHECK团队有信心Llama模型与他们的优先事项一致。
“使用Llama,我们在核心流程中使用了一个伦理训练和来源的模型,使我们的流程与我们的价值观一致,”Hussain说。
她承认,正确定位文档、查询它们以及生成适合每个人上下文和具体要求的响应仍然是挑战。
“每个机器学习模型都是不同的,每家公司使用其模型的过程也独一无二,”她补充道。
Hussain对团队的“分块”文档内容的方法充满信心,认为这一策略将取得成功。
“我们相信Llama是验证我们关于分块策略假设并监控我们服务响应效果的优秀模型,”她说。
AI与人类合作的未来
Llama的负责任基础和透明性对团队的价值观和他们对AI如何在全球产生影响的看法至关重要。SAIF CHECK认为,AI的真正作用在于补充和增强人类对计算机的使用。
为此,人们需要信任他们使用的AI模型。这种信任是SAIF CHECK的基石——无论是他们自己的AI模型,还是他们为客户验证的模型。
“由于Llama是开源的,我们可以清楚地看到其发展过程,信任其文档,并确信在理解和实施这一模型进入现实世界服务方面,我们不是孤军奋战,”Hussain说。