谷歌架构调整后财报解读:搜索广告高速增长

简介:

image
美国时间2月1日,谷歌母公司Alphabet发布了自去年8月份以来架构调整后的首份财报,该份财报备受外界关注,主要是由于在架构调整后,外界可以更加清晰地了解Alphabet旗下五花八门的各项业务的财务状况。

财报显示,Alphabet去年第四季度实现营业收入213亿美元,净利润49.2亿美元,其中谷歌广告收入为190.8亿美元,同比上涨17%,该季度的每股盈利为8.67美元,远高于此前市场普遍预期的8.10美元。

与其他科技公司一样,本季度谷歌也遭遇到美元升值所带来的不利影响,去除外汇波动因素,营业收入同比增速高达24%。

分具体业务部门来看,Alphabet旗下最赚钱的业务部门无疑是谷歌,包含搜索、广告、安卓、Youtube等主要业务,营收全年达到745.4亿美元,运营利润为234.3亿美元。其他业务,包含谷歌光纤、无人车等未来实验性业务项目全年营业收入为4.48亿美元,这部分收入主要来自于智能家居业务Nest, 谷歌光纤服务Fiber以及生命科学研究的Verily,其他业务部分全年运营亏损为35.7亿美元。

从分部门的业绩数据中不难看出,谷歌的业绩主要依靠其搜索广告业务的贡献,全年营收90%以上来自于该部分业务领域,而在长期项目上,谷歌也不惜血本,砸下重金投入。

分地区来看,谷歌在美国的营收同比增长24%,在英国同比增长16%。

谷歌首席财务官鲁丝 波拉特(Ruth Porat)在财报发布后的投资者电话会议上强调,谷歌的搜索业务,尤其是移动端搜索以及Youtube视频广告业务增长强劲。

波拉特同时指出,谷歌在Youtbue视频内容采购方面的开支以及硬件方面,包括Nexus手机、Chromcast智能电视和Pixel笔记本电脑方面投入较大。

去年一年,谷歌股价上涨了43%,在当天利好财报发布后,投资者信心大涨,推动谷歌股价在盘后上涨6%,并一举超越苹果,成为全球市值最大的公司。

本文转自d1net(转载)

相关文章
|
缓存 Ubuntu 数据库
百度搜索:蓝易云【Ubuntu系统目录架构详解】
这是Ubuntu系统目录架构的主要部分,每个目录都有其特定的用途,合理使用目录结构可以使系统更加有序和易于管理。
137 2
|
机器学习/深度学习 供应链 安全
TSMixer:谷歌发布的用于时间序列预测的全新全mlp架构
这是谷歌在9月最近发布的一种新的架构 TSMixer: An all-MLP architecture for time series forecasting ,TSMixer是一种先进的多元模型,利用线性模型特征,在长期预测基准上表现良好。据我们所知,TSMixer是第一个在长期预测基准上表现与最先进的单变量模型一样好的多变量模型,在长期预测基准上,表明交叉变量信息不太有益。”
627 1
|
Cloud Native 架构师 Java
谷歌架构师分享gRPC与云原生应用开发Go和Java为例文档
随着微服务和云原生相关技术的发展,应用程序的架构模式已从传统的单体架构或分层架构转向了分布式的计算架构。尽管分布式架构本身有一定的开发成本和运维成本,但它所带来的收益是显而易见的。
|
5月前
|
机器学习/深度学习 算法 文件存储
YOLOv11改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
YOLOv11改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
433 10
YOLOv11改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
|
5月前
|
机器学习/深度学习 算法 文件存储
RT-DETR改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
RT-DETR改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
157 4
RT-DETR改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
|
6月前
|
机器学习/深度学习 人工智能 并行计算
Titans:谷歌新型神经记忆架构,突破 Transformer 长序列处理的瓶颈
Titans 是谷歌推出的新型神经网络架构,通过神经长期记忆模块突破 Transformer 在处理长序列数据时的瓶颈,支持并行计算,显著提升训练效率。
195 5
Titans:谷歌新型神经记忆架构,突破 Transformer 长序列处理的瓶颈
|
5月前
|
机器学习/深度学习 算法 文件存储
神经架构搜索:自动化设计神经网络的方法
在人工智能(AI)和深度学习(Deep Learning)快速发展的背景下,神经网络架构的设计已成为一个日益复杂而关键的任务。传统上,研究人员和工程师需要通过经验和反复试验来手动设计神经网络,耗费大量时间和计算资源。随着模型规模的不断扩大,这种方法显得愈加低效和不够灵活。为了解决这一挑战,神经架构搜索(Neural Architecture Search,NAS)应运而生,成为自动化设计神经网络的重要工具。
|
7月前
|
搜索推荐 API 定位技术
一文看懂Elasticsearch的技术架构:高效、精准的搜索神器
Elasticsearch 是一个基于 Lucene 的开源搜索引擎,以其强大的全文本搜索功能和快速的倒排索引技术著称。它不仅支持数字、文本、地理位置等多类型数据,还提供了可调相关度分数、高级查询 DSL 等功能。Elasticsearch 的核心技术流程包括数据导入、解析、索引化、查询处理、得分计算及结果返回,确保高效处理大规模数据并提供准确的搜索结果。通过 RESTful API、Logstash 和 Filebeat 等工具,Elasticsearch 可以从多种数据源中导入和解析数据,支持复杂的查询需求。
352 0
|
机器学习/深度学习 算法 文件存储
使用Python实现深度学习模型:神经架构搜索与自动机器学习
【7月更文挑战第5天】 使用Python实现深度学习模型:神经架构搜索与自动机器学习
180 2
|
机器学习/深度学习 自然语言处理 算法
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高
【6月更文挑战第20天】研究人员运用神经架构搜索(NAS)压缩LLM,如LLaMA2-7B,找到小而精准的子网,降低内存与计算成本,保持甚至提升性能。实验显示在多个任务上,模型大小减半,速度加快,精度不变或提升。NAS虽需大量计算资源,但结合量化技术,能有效优化大型语言模型。[论文链接](https://arxiv.org/pdf/2405.18377)**
174 3

热门文章

最新文章