rk3588 mpp_log 不打印输出

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: rk3588 mpp_log 不打印输出解决方案 本人csdn博客搬运

经过测试,编译后的测试应用可以正常进行编解码及其他功能 ,就是没有打印输出

平台是 Rk3588香橙派 plus ,安装的ubuntu
好像是他默认现在打到/var/log/syslog 里面了
修改的文件路径如下
/home/orangepi/code/mpp-develop/osal/linux/os_log.cpp

函数 os_log_info(const char tag, const char msg, va_list list)
vsyslog(LOG_INFO, line, list);下面加入

  vfprintf(stdout, line, list);

函数 void os_err(const char tag, const char msg, va_list list)
vsyslog(LOG_ERR, line, list);下面加入:

vfprintf(stderr, line, list);

问题得以解决,在终端中有打印,也在 /var/log/syslog 也有打印。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
11月前
|
分布式计算 MaxCompute
在MaxCompute中,你可以使用OUTPUT语句将查询结果输出到日志文件中
在MaxCompute中,你可以使用OUTPUT语句将查询结果输出到日志文件中
55 1
|
4月前
|
SQL 存储 Apache
在 Apache Flink SQL 中,并没有内置的 GROUP_CONCAT 函数
【2月更文挑战第16天】在 Apache Flink SQL 中,并没有内置的 GROUP_CONCAT 函数
408 2
|
4月前
|
SQL 消息中间件 缓存
Flink SQL中使用DEBUG模式来输出详细的日志信息,
Flink SQL中使用DEBUG模式来输出详细的日志信息,
246 0
|
4月前
|
SQL 分布式计算 关系型数据库
Spark【Spark SQL(二)RDD转换DataFrame、Spark SQL读写数据库 】
Spark【Spark SQL(二)RDD转换DataFrame、Spark SQL读写数据库 】
|
分布式计算 Spark 数据格式
【spark系列8】spark delta读数据实现分析
【spark系列8】spark delta读数据实现分析
344 0
|
SQL 分布式计算 Spark
SPARK SQL中 Grouping sets转Expand怎么实现的(逻辑计划级别)
SPARK SQL中 Grouping sets转Expand怎么实现的(逻辑计划级别)
529 0
|
SQL 存储 分布式计算
浅析Hive/Spark SQL读文件时的输入任务划分
本文最后留个思考题给读者们:如何设置参数彻底关闭Spark SQL data source表的文件合并? 积极回答问题即可获得社区礼物。
浅析Hive/Spark SQL读文件时的输入任务划分
|
消息中间件 分布式计算 Kafka
[转载] Spark Structed Streaming执行过程
在Struct Streaming中增加了支持sql处理流数据,在sql包中单独处理,其中StreamExecution是下面提到两处流处理的基类,这个流查询在数据源有新数据到达时会生成一个QueryExecution来执行并将结果输出到指定的Sink(处理后数据存放地)中。