Runway 突然删除清空了 HuggingFace 上的所有内容!原因不明...
- 之前的项目也无法访问了,比如 Stable Diffusion v1.5也被删了
🔗https://huggingface.co/runwayml/stable-diffusion-v1-5
🔗GitHub 也空了:https://github.com/runwayml/stable-diffusion
美国政府今天宣布,OpenAI 和 Anthropic 已签署正式的人工智能安全研究、测试和评估合作协议。
- 根据协议,美国人工智能安全研究所(USAISI) 将在模型发布之前获得 OpenAI 和 Anthropic 的主要新模型的使用权。
- 用来评估评估模型能力和安全风险,同时,协议还涉及开发和测试风险缓解策略,以确保这些AI技术在发布后不会对社会或用户构成潜在威胁。
🔗详细:https://nist.gov/news-events/news/2024/08/us-ai-safety-institute-signs-agreements-regarding-ai-safety-research
阿里云发布Qwen2-VL 最新视觉语言模型
- Qwen2-VL具备多分辨率和比例图像的先进理解能力,并在多个视觉理解基准上表现出色,
- 此外,Qwen2-VL能够理解长达20分钟以上的视频内容,支持复杂推理和决策,使其能够与移动设备、机器人等进行自动化操作。
- 该模型还增加了多语言支持,能理解包括大部分欧洲语言、日语、韩语、阿拉伯语等在内的图像文本。
🔗官方介绍:https://qwenlm.github.io/blog/qwen2-vl/
🔗GitHub:https://github.com/QwenLM/Qwen2-VL
🔗模型下载:https://huggingface.co/collections/Qwen/qwen2-vl-66cee7455501d7126940800d
🔗在线演示:https://huggingface.co/spaces/Qwen/Qwen2-VL
🔗API:https://help.aliyun.com/zh/model-studio/developer-reference/qwen-vl-api
🔗详细内容:https://xiaohu.ai/p/12991
Magic团队开发出一种超长上下文 AI 模型 LTM
- 可处理 1 亿个Token的上下文,远远超出了传统模型的处理能力。
- 1亿个Token相当于大约1000万行代码或750本小说的内容。 而且其计算效率比 Llama 3.1 405B的注意力机制高出约1000倍。
- LTM-2-mini通过链式思维方法进行训练,能够在复杂的哈希链推理任务中取得高达100%的准确率。
- 这种能力极大地扩展了模型在实际应用中的适用范围,例如在软件开发中,模型可以利用整个代码库、相关文档和库来生成更高质量的代码。
🔗官方介绍及演示:https://magic.dev/blog/100m-token-context-windows