华泰证券电子行业动态点评:从谷歌I/O大会2024一览AI产业链前沿动态

谷歌I/O 大会彰显AI 发展四大趋势,模型轻量化及自研芯片更上一层AI 巨头谷歌于美国时间5 月14 日举行I/O 大会,宣布了AI 大模型、自研芯片、终端应用及算法等一系列新产品。我们认为本次会议彰显了AI 行业的四大趋势:1)模型方面:算法的改进助力大模型趋向更轻量化和实现更强的多模态能力,进而便于边缘侧部署;2)芯片方面:自研AI 芯片的设计改进,以及增加内存容量和传输带宽以解决AI 计算瓶颈,逐渐构成以自研ASIC+外购GPU 互补的大势;3)终端应用:产品百花齐放,包括AI 助手和搜索引擎的的集成与升级,赋能应用向多模态升级;4)算法方面:深度学习与Transformer 并重的算法以减少幻觉影响及提升回应的准确性。

轻量化模型的军备竞赛:各家部署边缘计算,Gemma 2 性能媲美Llama 3在OpenAI 发布GPT-4o 的后一天,谷歌发布升级版大模型Gemini 1.5 Pro,并推出轻量化版本Gemini 1.5 Flash 与Gemma 2。对比同样具备多模态能力的GPT-4o,Gemini 1.5 Pro 不仅升级了翻译、编码、推理等功能,而在tokens 方面,GPT-4o 的上下文窗口仅为12.8 万,而Gemini 1.5 Pro 私人预览版上下文窗口则已达200 万tokens。Gemini 和ChatGPT 均有望集成于苹果系统中。Gemma 2 (27B 参数) 通过算法改进实现轻量化,其性能可媲美Meta 参数更大的模型Llama 3 (70B 参数)。此外,微软同样也于4 月发布开源轻量模型Phi-3-mini (3.8B 参数),助力边缘智能终端部署。

AI 芯片双线布局,各科技巨头均采取自研+外购,谷歌TPU 更新至第六代谷歌第六代Trillium TPU 重磅推出,其通过改良芯片设计,包括扩大矩阵乘法单元(MXU)并提高时钟速度,以及提升HBM和芯片间互连(ICI)带宽至v5e的2 倍,使单芯片峰值算力对比TPU v5e 提高4.7 倍,能效也比v5e 高67%以上。芯片扩展方面,Trillium 不仅能在单个Pod 中扩展至256 个TPU,且能通过多切片技术实现集群。此外,谷歌在自研AI 芯片同时,也大量采购英伟达GPU,包括H100 以及计划将Blackwell 平台也引入公司AI 云基础设施和超级计算机架构中。对比微软、AWS 与Meta 亦同时采取自研+外购AI 芯片齐头并进策略,实现优势互补与降本增效。

端侧AI 已成“兵家必争”之地,多模态及人机互动引领新趋势谷歌本次推出了多模态模型Veo 视频生成、Imagen 3 图像生成,及智能助手Astra 作人机互动,与OpenAI 和Meta 等正面交锋。Veo 能制作1 分钟以上的1080p 视频,并有望内置于YouTube Shorts;而Imagen 3 则可更好理解自然语言,并减少图片视觉伪影。智能助理Astra 实现了三大升级:

1)个性化和主动性,具类人理解及反应;2)实时视讯、音讯互动与低延迟;3)与AR 眼镜配合使用。目前,多模态为广告、短视频和智能助理“兵家必争”之地,OpenAI 此前就发布了视频生成模型Sora 和聚焦虚拟助理的GPT-4o 更新;同为广告巨头的Meta 也不甘示弱,不仅推出了AI 模型制作图片广告,还通过ImageBind 模型横跨六大模态来创建联合嵌入空间。

大模型是否适合用于搜索引擎?深度学习+Transformer 必须互为臂助大模型的幻觉(Hallucinations)与搜索结果的精确性要求存在冲突,这是AI界存在已久的矛盾。本次谷歌通过同时采用深度学习+Transformer 技术尝试解决。深度学习类比人类左脑功能,可保证检索的精确性,而大模型类比人类右脑功能,可提升文字交流、内容生成与总结方面性能。谷歌这次推出AI Overview 搜索引擎且向公众开放,但目前仅限美国地区。此前,谷歌于19 年推出基于Transformer 的BERT 来提升搜索的语义理解能力;23 年谷歌再次将生成式AI 引入搜索引擎,推出搜索生成体验(SGE)功能。5 月11日Reuters 报道OpenAI 将推出AI 搜索引擎,其解决方案亦值得关注。

风险提示:AI 落地不及预期、行业竞争激烈、中美竞争加剧。相关信息数据来自于公开渠道,不代表对相关公司的研究覆盖和推荐。

滚动至顶部