谷歌Gemini15 AI模型升级聊天响应速度飙升50
【ITBEAR】9月25日消息,谷歌近日对其人工智能模型Gemini 1.5系列进行了重要更新,推出了Gemini-1.5-Pro-002和Gemini-1.5-Flash-002两款新型模型,显著提升了AI聊天的响应速度与性能。
据ITBEAR了解,新款Gemini-1.5-Flash-002模型在响应速度上有了显著突破,最高提升了50%。这一进步得益于谷歌在减少模型延迟方面所做的努力,为用户带来了更为顺畅高效的交互体验。同时,8月份发布的Gemini 1.5实验模型也获得了升级,推出了Gemini-1.5-Flash-8B-Exp-0924版本,增强了在文本和多模态应用方面的能力。
新版本的Gemini模型不仅在速度上有所提升,还在成本控制方面进行了优化。谷歌宣布,新款模型的token输入和输出费用将大幅降低,最高可减少50%。此外,新模型还提高了速率限制并降低了延迟,使得用户在使用过程中能够获得更快速、更经济的服务。这一新的定价策略计划于2024年10月1日正式实施。
在性能方面,新款Gemini模型在多项基准测试中展现出了卓越的表现。MMLU-Pro基准测试结果显示,新模型性能提升了约7%;在MATH和HiddenMath数学基准测试中,性能更是提升了高达20%;此外,在视觉理解和Python代码生成评估中,性能也有2-7%的提升。
用户可以通过Google AI Studio、Gemini API以及面向Google Cloud客户的Vertex AI平台来访问这些全新的Gemini模型。同时,针对Gemini Advanced用户的优化版Gemini 1.5 Pro-002也即将推出,为用户提供更加个性化的服务。
此次谷歌对Gemini 1.5系列的升级不仅提升了模型的性能和响应速度,还在成本控制方面做出了显著改进,有望进一步巩固其在人工智能领域的领先地位。
#谷歌# #Gemini模型# #AI升级# #性能提升# #成本优化#