1、java日志文件是保存在本地且每一天产生一个日志文件。日志服务器 怎么实现 数据采集并且是一次采集 某文件更新的1mb数据。
2、请看以下代码 为什么不能保存至日志服务器 纠结很久了 没什么头绪
Client client = new Client(endpoint, accessKeyId, accessKeySecret);
// 列出当前Project下的所有日志库名称
int offset = 0;
int size = 1;
String logStoreSubName = "";
ListLogStoresRequest req1 = new ListLogStoresRequest(project, offset,
size, logStoreSubName);
//ArrayList<String> logStores = client.ListLogStores(project,offset,size,logStoreSubName).GetLogStores();
ArrayList<String> logStores = client.ListLogStores(req1).GetLogStores();
System.out.println("ListLogs:" + logStores.toString() + "\n");
// 写入日志
String topic = "";
String source = "";
// 连续发送1个数据包,每个数据包有2条日志
for (int i = 0; i < 1; i++) {
Vector<LogItem> logGroup = new Vector<LogItem>();
for (int j = 0; j < 2; j++) {
LogItem logItem = new LogItem(
(int) (new Date().getTime() / 1000));
logItem.PushBack("index", String.valueOf(i * 10 + j));
logGroup.add(logItem);
}
PutLogsRequest req2 = new PutLogsRequest(project, logstore, topic,
source, logGroup);
client.PutLogs(req2);
}
client.PutLogs。。。服务器没任何数据
同问,sdk调用putlogs返回成功,但logstore里没有数据。
我还特意抓了包,请求和响应如下,麻烦大神们看下:
POST /logstores/xxxx/shards/lb HTTP/1.1
Authorization: xxxx
x-log-bodyrawsize: 86
User-Agent: sls-java-sdk-v-0.6.1
x-log-apiversion: 0.6.0
x-log-signaturemethod: hmac-sha1
Date: Tue, 16 Jul 2019 09:54:18 GMT
x-log-compresstype: lz4
Content-Type: application/x-protobuf
Content-MD5: 62A6E0EE0C6C53E07447618507C72C0B
Content-Length: 88
Host: banma-trace-log.cn-shanghai.log.aliyuncs.com
Connection: Keep-Alive
.G
E.......
.parent..abc..
.child..def..
.source..jaeger..
callCount..1..".30.16.96.26
HTTP/1.1 200
Server: nginx
Content-Length: 0
Connection: close
Access-Control-Allow-Origin: *
Date: Tue, 16 Jul 2019 09:54:13 GMT
x-log-requestid: 5D2D9EC59BF3F8367D610FFE
public PutLogsResponse PutLogs(PutLogsRequest request) throws LogException ;
楼主应该把 返回值 打印出来. 方便定位问题. 如果返回值内容很丰富, 解决问题就非常快了.
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。