为什么说雅虎的未来在于回归媒体的初衷

简介:

Marissa Mayer 这些年一直在挣扎,不断尝试让雅虎转型但总是徒劳无益。现在她更是面临来自董事会的巨大压力,董事会急切地希望她转变雅虎运营策略,尽快卖点雅虎核心资产。

对于雅虎的衰落,原因是多方面的,但如果非要挑选出一个的话,毫无疑问是雅虎在移动互联网浪潮中没能及时转型。在 2012 年 6 月 Mayer 加入雅虎以来,大方向早已变成了移动互联网。为了追赶移动互联网的潮流,Mayer 也做过尝试,比如多起收购事件,最著名的是 2013 年收购 Tumblr,但可惜所有的收购都没能带来实质性的改变。

看看雅虎股票就不难理解雅虎投资人为何心急火燎,其股价在过去一年里已经下跌了 30%。现有估值很大程度是依赖于其投资性资产,包括阿里巴巴以及日本雅虎额股份。自从美国税务局同意雅虎通过免税方式摆脱阿里巴巴资产,雅虎背后的投资人就不断坚持要求雅虎尽快玻璃投资资产,甩掉核心业务,这真是太糟糕。毕竟雅虎当前一直是最知名的内容输出网站。

截止 2016 年 2 月过去一年雅虎股价

除了内容输出,即便是雅虎的优势业务如搜索引擎,雅虎也做得不痛不痒。在 2016 年 1 月,雅虎宣称其搜索业务占据全球市场的 12%,似乎很高,但 Google 的市场份额为 64%。所以说雅虎真正的主要业务,还是新闻内容,其拥有广阔的读者群以及相当大数量的忠实粉丝。

你可能会疑问,读者群到底有多大?根据著名互联网统计机构 comScore 数据,就 2015 年 12 月美国数据(数据网址),雅虎全站的独立访客数达到 20.4 万,在所有内容类网站中排名第三,第一名是 Google,该月独立访客 24.8 万,第二名是 Facebook,独立访客 21.8 万。雅虎表现可圈可点,超过 BuzzFeed 和《华盛顿时报》网站独立访客的总和。然而对于独立访客数据,BuzzFeed 最近曾发文质疑独立访客的重要性,表示统计独立访客是一项过时的做法,毕竟有很多内容都不是通过主站分发,而是通过 Youtube 以及 Facebook 等渠道分发。从这个角度,雅虎的网络影响力暗含危机。

对于转型内容媒体,另一个挑战在于,雅虎除了是提供资讯内容,同时还是邮件服务提供商,并且旗下的 Flickr 还提供网络站片存储服务,雅虎旗下众多的服务之间关联紧密,比如很大部分的内容访问源头都来自 Flickr 和雅虎邮箱,如果拆开,雅虎的流量数据或许又会不一样,雅虎或不得不重新评估每项资产的价值。并且雅虎为了保持流量增长,雅虎已经付出了不菲的成本,2015 年第四季度财报显示,其流量获取成本(TAC)为 271 美元,而 2014 年第四季度流量获取成本则为 74 美元。为此雅虎不得不削减成本支出,比如不断的裁员。

雅虎内容团队成本高昂,相比于新兴媒体的「精益」路线,很难说有竞争力。BuzzFeed 独立月访客 8000 万,内容团队一共有 1300 人,差不多每名雇员创造 6.2 万的独立访客量。雅虎内容团队大概有 9000 人,这么算的话,平均每人吸引的独立访客只有 2.3 万。所以说雅虎重塑明晰的内容战略迫在眉睫。

雅虎前体育和娱乐内容主编 David Katz 也认为目前的雅虎内容策略过于模糊。他当前是数字体育媒体《ThePostGame》的 CEO,该网站是雅虎与 David Katz 在 2011 年联合创立,目前两家公司签有内容共享协议。

在 Katz 的任期内,他认为雅虎内容团队专注于雇佣高质量的内容创作者,并投入大量资源来报道优质新闻,而如今,Katz 觉得雅虎似乎更倾向于购买大型赛事的内容资源,削弱原创新闻报道的占比,这直接导致了内容成本高昂。

比如据报道,雅虎为了一项伦敦赛事的直播权,向国家橄榄球联盟(National Football League,NFL)支付了 2 千万美元。在 2015 年 Q3 财报上,雅虎为了购买视频版权共支付了超过 4 千万美元。

「我完全相信雅虎在内容领域已经彻底失去了自己的灵魂,」Katz 说道。「向第三方购买,在屈指可数的几个产品上花无数的钱,实在有点本末倒置。」

虽然雅虎在数个月前就传出要变卖核心资产,但是一直以来只听雷声不见雨点。现在判断雅虎的未来也为时尚早。但是如果雅虎能及时调整结构,依仗雅虎在内容和搜索领域的积累,或许还有立足之地。

本文转自d1net(转载)

相关文章
|
1天前
|
自然语言处理 测试技术
社区供稿 | 引入隐式模型融合技术,中山大学团队推出 FuseChat-3.0
在大语言模型(LLM)领域,结合多个模型的优势以提升单个模型的能力已成为一大趋势。然而,以往的模型融合方法例如 FuseLLM[1], FuseChat-1.0/2.0[2] 等存在词表对齐困难、效率低下等问题。
|
22天前
|
人工智能 并行计算 PyTorch
ViewExtrapolator:南洋理工联合UCAS团队推出的新型视图合成方法
南洋理工大学与UCAS团队联合推出了一种新型视图合成方法——ViewExtrapolator。该方法基于稳定视频扩散(SVD)技术,能够在不进行微调的情况下,高效生成超出训练视图范围的新视角图像,显著减少伪影,提升视觉质量。ViewExtrapolator具有广泛的应用前景,尤其在虚拟现实、3D内容创建、电影制作等领域。
36 1
ViewExtrapolator:南洋理工联合UCAS团队推出的新型视图合成方法
|
3月前
|
测试技术
LLM数学性能暴涨168%,微软14人团队力作!合成数据2.0秘诀曝光,智能体生成教学
【9月更文挑战第14天】微软研究团队发布了一篇介绍新型框架"AgentInstruct"的论文,该框架旨在通过自动生成高质量合成数据,推动语言模型发展。AgentInstruct仅需原始数据源即可创建多样化的合成数据,减少人工工作量。研究团队基于此框架构建了含2500万训练对的数据集,展示了其在多种技能教学中的潜力。经微调后的Mistral-7b模型演进为Orca-3,在多个基准测试中显著超越同类模型。尽管如此,AgentInstruct仍面临创建流程耗时及合成数据复杂性不足等问题。论文详情见:https://arxiv.org/pdf/2407.03502
78 2
|
4月前
|
自然语言处理 语音技术
|
机器学习/深度学习 自然语言处理 测试技术
社区供稿 | 封神榜团队揭秘大模型训练秘密:以数据为中心
近一年来,各种各样的开源和闭源的大语言模型,不断在多个中文英文的测试基准中刷新着记录。然而,大语言模型的开发仍然面临诸多挑战,比如从头开始训练大语言模型的高昂成本,以及继续预训练导致的灾难性遗忘等等。尽管许多研究致力于解决这些问题,但一个重要而且实际的限制是,许多研究过于追求扩大模型规模,没有全面分析和优化预训练数据在训练大语言模型过程中的使用。
|
7月前
|
数据采集 人工智能 自然语言处理
谷歌DeepMind发布Gecko:专攻检索,与大7倍模型相抗衡
【4月更文挑战第12天】谷歌DeepMind的Gecko模型以小巧身形(256维)展现出媲美大型语言模型的检索性能,且在MTEB基准测试中超越768维模型。采用两步蒸馏法训练,适用于多任务及硬件环境,尤其在多语言处理上表现出色。尽管训练成本高、泛化能力待优化,但其创新为文本嵌入技术带来新可能。
124 7
谷歌DeepMind发布Gecko:专攻检索,与大7倍模型相抗衡
|
7月前
|
人工智能 自然语言处理
浙大联合微软等提出全新视频编辑统一框架UniEdit
【2月更文挑战第13天】浙大联合微软等提出全新视频编辑统一框架UniEdit
64 2
浙大联合微软等提出全新视频编辑统一框架UniEdit
|
7月前
|
机器学习/深度学习 编解码 自然语言处理
华为诺亚实验室提出CFT | 大模型打压下语义分割该何去何从?或许这就是答案!
华为诺亚实验室提出CFT | 大模型打压下语义分割该何去何从?或许这就是答案!
92 0
|
机器学习/深度学习 搜索推荐 数据安全/隐私保护
高效利用多级用户意图,港科大、北大等提出会话推荐新模型Atten-Mixer
高效利用多级用户意图,港科大、北大等提出会话推荐新模型Atten-Mixer
126 0
|
机器学习/深度学习 搜索推荐 算法
推荐系统[八]算法实践总结V0:腾讯音乐全民K歌推荐系统架构及粗排设计
推荐系统[八]算法实践总结V0:腾讯音乐全民K歌推荐系统架构及粗排设计
推荐系统[八]算法实践总结V0:腾讯音乐全民K歌推荐系统架构及粗排设计
下一篇
DataWorks