开发者社区 > 数据库 > 数据库管理工具 > 正文

数据传输DTS任务诊断发现有这个异常,我到源库查看,有一个sql执行了17个小时,帮忙看看?

在使用数据传输DTS进行任务迁移时,发现任务ID为dtswu7w1o4z16ak6ju的任务出现异常,其中一个SQL查询在源库执行了17个小时。为了加快迁移速度并解决目标库锁表的问题,请问如何处理该慢SQL进程以及优化迁移效率?另外目前目标库共有11个连接,其中只有4个活跃,其他均为sleep状态。此外,源库的慢SQL是否会影响迁移进程?
991b320fcf03696724dcb55e069c249d.png
eff6481adca70e82adabf26219884787.png

展开
收起
你鞋带开了~ 2024-01-21 10:52:44 77 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    根据文档中提供的信息,如果数据传输DTS任务诊断发现异常,并且源库中有一个SQL执行了17个小时,您可以尝试以下步骤来解决问题:

    1. 检查账号密码:确保源库的账号密码是正确的,并且没有过期或被锁定。

    2. 检查负载和连接数限制:确认是否超出了数据库的最大连接数限制,如果是,请增加最大连接数或减少并发连接。

    3. 检查网络白名单设置:确保源库的网络白名单(公网、专线、CEN、DG)已正确配置,并且目标库的IP地址已被添加到白名单中。

    4. 检查DDL语句执行:如果目标库存在题表,可能是由于DDL语句执行阻塞或降低DML语句执行速度导致的延迟。您可以等待DDL语句执行完成,或者先结束DDL任务。

    5. 检查DML频繁写入:如果DML操作频繁进行,可能会导致写入延迟或无法写入。您可以考虑优化DML操作的频率或使用批量写入来提高性能。

    2024-01-21 14:01:07
    赞同 展开评论 打赏
  • 您好,后端查看全量迁移报错:User plus already has more than 'max_user_connections' active connections是因为超出了最大连接数导致的任务重试,后端适当的调小了并发,max_user_connections需要您这边在目标端加大一下这个参数的连接,如果是目标端还是存在问题,后端是没有办法提升速度的,由于DTS在执行全量数据迁移时,速率是受限于源和目标端的,我这边尝试全量迁移放开限速试试,如源和目标端负载较高可能会导致全量迁移的速率不会很快的,您这边注意观察观察
    --此回答整理自钉群“DTS客户交流群-2”

    2024-01-21 11:26:19
    赞同 展开评论 打赏
  • 北京阿里云ACE会长
    1. 优化SQL语句:如果SQL语句执行缓慢,可以尝试优化它,以加快执行速度。可以考虑使用索引、减少查询范围、减少JOIN操作等方法来优化SQL语句。
    2. 限制连接数:如果源库的连接数过多,可以尝试限制连接数,以减少资源竞争。可以考虑使用连接池技术,限制每个会话的连接数。
    3. 升级DTS版本:如果使用的是旧版本的DTS,可能会导致性能问题。可以尝试升级DTS版本,以获得更好的性能。
    4. 调整DTS任务参数:可以尝试调整DTS任务的参数,以提高迁移速度。可以考虑增加并发数、调整传输时间间隔等参数。
      关于目标库存在锁表的问题,可以尝试以下方法来解决:
    5. 等待锁表释放:如果目标库存在锁表,可以尝试等待锁表释放,以加快数据传输速度。可以查看目标库的锁表信息,确定哪些表被锁定,并等待锁定结束。
    6. 优化DML语句:如果DML语句执行缓慢,可以尝试优化它,以加快执行速度。可以考虑使用索引、减少查询范围、减少JOIN操作等方法来优化DML语句。
    7. 升级目标库版本:如果使用的是旧版本的目标库,可能会导致锁表问题。可以尝试升级目标库版本,以获得更好的性能。
    2024-01-21 11:05:00
    赞同 展开评论 打赏

阿里云提供了一系列数据库管理工具,可以满足您在云上进行数据库管理的各种需求。包含数据传输服务DTS、数据库备份 DBS、数据库自治服务 DAS、数据管理 DMS。

相关电子书

更多
SQL Server 2017 立即下载
GeoMesa on Spark SQL 立即下载
原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载