一个臻吖_个人页

个人头像照片 一个臻吖
个人头像照片 个人头像照片
2
1212
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息

2023年02月

  • 发表了文章 2024-05-15

    反了!居然让我教她自动化测试!

  • 发表了文章 2024-05-15

    破壁人AI百度:科技公司反内卷的典型样本

正在加载, 请稍后...
滑动查看更多
  • 回答了问题 2023-02-21

    dataworks绑定maxcompute时报这个错误,是什么原因?

    project name是唯一的哈,可以换个不重复的project name。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    如何查看odps的版本啊?

    ODPS没有版本,odpscmd有自己的版本,MaxCompute的数据类型有1.0版本和2.0版本 数据类型可以通过在odpscmd执行setproject;查看 odpscmd版本在连接之前会打印出来,可以参考这个文档 https://help.aliyun.com/document_detail/27821.html。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    恢复这个版本的分区报错如下是什么意思啊?

    我理解是这样,恢复分区分为恢复已有分区之前版本和已删除分区1. 恢复已删除分区可以用:restore table table_name PARTITION('id'='xxxx')[PARTITION('id'='xxxx')];2. 恢复已有分区之前版本可以用:restore table table_name PARTITION('id'='xxxx')[PARTITION('id'='xxxx')];目前你的分区是属于DROP状态,所以恢复分区应该走方式1。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    不小心drop掉的分区,能补回来吗?

    看备份与恢复。不超24小时应该可以。可以参考这个文档 https://help.aliyun.com/document_detail/172397.html。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    DataWorks读mongodb到dm数据库涉及权限问题吗?

    创建好数据源并测试连通性通过就行。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    mc里的结果表怎么对插入进来的数据自动去重呢?

    我理解是没有自动去重的办法,需要手动去重的。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    请问通过shell可以获取到dataworks绑定的maxcompute名吗?

    确认了下应该不行 shell调用odpscmd 对应的project也是主动配置进去的。 使用shell调用sql,请注意 accessid 、accesskey 和 endpoint 的替换,详细调用方法如下: /opt/taobao/tbdpapp/odpswrapper/odpsconsole/bin/odpscmd -u accessid -p accesskey --project=testproject --endpoint=http://service.odps.aliyun.com/api -e ''sql''。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    下面的问题怎么处理啊?

    当前登录账号没有doc_data这个project的List权限,可以看下这个文档来操作 https://help.aliyun.com/document_detail/468613.html#uPn2v。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    求2个或多个数值数的平均值 有没有专门的函数?不是avg(参数),而是参数是不确定的那种?

    我看了下除了avg没有其他的了,如果不满足要求可以自建udf,可以参考这个文档 https://help.aliyun.com/document_detail/27867.html。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    可以增加提交的sql个数呢?

    需要看下logview。这个阶段一般是project级别的流控。可以参考这个文档 https://help.aliyun.com/document_detail/121346.html。当前这个限制没办法突破。只能拆分项目了。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    如何根据logview的这个数值,判断执行SQL需要多少CU啊?

    这个233.03是耗费的CU,也可以在元数据视图里查,TASKS_HISTORY的cost_cpu字段,可以参考下面文档 https://help.aliyun.com/document_detail/135433.html。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    这里报错是为什么啊?

    我查了文档应该是没有直接删除表数据的操作,可以直接删除表,可以参考这个文档 https://help.aliyun.com/document_detail/90412.html#section-tzj-4rl-cfb。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    请问连接数据源的时候,这里有个数据源VPC Region参数,在哪里可以查到呢?

    应该是ecs绑定的vpc实例在哪个region下,ecs绑定的vpc应该都在同一个region的,也可以到专有网络控制台看一下,可以参考这个文档 https://vpc.console.aliyun.com/vpc/cn-shanghai/vpcs。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    pyodps 可以更新odps表吗?

    可以写入表数据,可以参考这个文档 https://help.aliyun.com/document_detail/90412.html#section-djb-brl-cfb。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    maxcompute导出oss支持什么文件格式?

    CSV、TSV和其他开源格式比如ORC、PARQUET啥的都行 具体可以参考一下这个文档:https://help.aliyun.com/document_detail/203423.html#section-qat-l8m-n7s。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    mc的默认和最大超时时间是多少呀?比如说 离线集成 。

    如下图。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    这个怎么查的有点不明白 ?

    用odpscmd,直接执行setproject。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    数据格式没问题为什么提示这个错误呢?

    哪个字段的值能确定吗,把哪个字段强转成string再算一下。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    为什么我目前测试读取不了?

    可以按照下文档示例执行 https://help.aliyun.com/document_detail/317772.html。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
  • 回答了问题 2023-02-21

    请问有什么解决方案吗?

    看下这个方式创建外部表之后再insert进内表是否可以,参考该链接https://help.aliyun.com/document_detail/45389.html#section-m3r-qqb-ngm。此回答整理自钉钉群”MaxCompute开发者社区2群“
    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息