近期,人工智能领域迎来了一系列激动人心的新模型和创新,这些进展预示着AI技术将变得更加强大、经济实惠且易于获取。随着训练技术的不断进步,这些发展有望改变多个行业,展示出AI技术的快速发展和不断扩大的能力。
OpenAI推出了GPT-4o Mini,这是一个旨在替代GPT-3.5 Turbo的成本效益高且能力强大的模型。GPT-4o Mini的定价为每百万输入令牌0.15美元,每百万输出令牌0.60美元,提供了改进的智能和128k的上下文窗口,使其能够被更广泛的受众接受。
Mistral AI与NVIDIA合作推出了Mistral NeMo模型,这是一个拥有12B参数和128k令牌上下文窗口的模型。该模型承诺提供最先进的推理、世界知识和编码精度,并在Apache 2.0许可下提供。Mistral NeMo旨在广泛采用。
DeepSeek的V2模型大幅降低了推理成本,引发了中国AI公司之间的激烈价格战。被称为中国“AI拼多多”的DeepSeek V2的成本削减创新可能会颠覆全球AI格局。
Hugging Face发布的SmolLM提供了一系列小型语言模型,分为135M、360M和1.7B参数三种尺寸。这些模型在Cosmo-Corpus上进行训练,包括Cosmopedia v2(28B令牌的合成教育内容)、Python-Edu(4B令牌的Python编程示例)和FineWeb-Edu(220B令牌的去重网络数据)。SmolLM模型在常识推理和世界知识基准测试中表现出色,使它们成为同类产品中的强有力竞争者。
Mistral AI与Project Numina合作开发的Mathstral模型,针对STEM推理进行了微调,在MATH和MMLU基准测试中取得了令人印象深刻的分数。Mathstral 7B在MATH上获得了56.6%的pass@1,比Minerva 540B高出20%以上。该模型展示了为特定领域优化的专用模型的增长趋势,可能会重塑科学和技术领域的AI应用。
Mistral AI的新模型Codestral Mamba提供了线性时间推理和处理无限长序列的能力,由Albert Gu和Tri Dao共同开发。该模型旨在提高编码生产力,超越现有的SOTA基于变换器的模型,同时无论输入长度如何都能提供快速响应。
H2O Danube3引入了神经网络内文本反馈微分的开创性框架,为优化传统方法之外的复合AI系统开辟了新途径。创新的STORM系统通过模拟多样化视角,实现了文章组织25%的改进,使LLM能够生成类似维基百科条目的有根据和结构化的长篇内容。研究人员将TextGrad誉为AI的范式转变,允许协调多个大型语言模型(LLM)以提高性能。
微软研究院的最新Orca系列AgentInstruct专注于使用代理流的生成性教学。这种技术使用多个代理将原始文档转换为多样化的指令,从而产生一个合成数据集,显著提高模型性能。
EfficientQAT是一种新的量化算法,它使得在减少内存使用和训练时间的情况下训练大型语言模型(LLM)成为可能。这项技术显示出了有希望的结果,特别是在训练像Llama-2-70B这样的模型时。
Q-Sparse技术允许完全稀疏激活的LLM实现与密集基线相当的结果,同时具有更高的效率。Q-Sparse代表了LLM训练和推理的重要进步,特别是在资源受限的环境中。
TurboTax的制造商Intuit宣布裁员7%,即1800名员工,因为它转向AI和机器学习。这一举措突显了AI对就业的日益增长的影响,即使是在报告显著收入增长的公司中也是如此。
ComfyUI引入了OpenGL着色语言(GLSL)节点,允许用户创建自定义着色器并将它们应用于ComfyUI工作流程中的图像。这一功能增强了使用GPU加速操作的实时图像处理,为高级视觉效果和自定义图像转换开辟了新的可能性。