• 关于

    定时发送功能不能用?

    的搜索结果

问题

定时发送功能不能用?

如题,想试一下定时发送功能,但是邮件一直躺在草稿箱没动,设置的时间是按北京时间来的。 是不能用还是我设置的问题?...
心晴309 2019-12-01 21:46:52 3545 浏览量 回答数 3

回答

12月17日更新 请问下同时消费多个topic的情况下,在richmap里面可以获取到当前消息所属的topic吗? 各位大佬,你们实时都是怎样重跑数据的? 有木有大神知道Flink能否消费多个kafka集群的数据? 这个问题有人遇到吗? 你们实时读取广业务库到kafka是通过什么读的?kafka connector 的原理是定时去轮询,这样如果表多了,会不会影响业务库的性能?甚至把业务库搞挂? 有没有flink 1.9 连接 hive的例子啊?官网文档试了,没成功 请问各位是怎么解决实时流数据倾斜的? 请问一下,对于有状态的任务,如果任务做代码升级的时候,可否修改BoundedOutOfOrdernessTimestampExtractor的maxOutOfOrderness呢?是否会有影响数据逻辑的地方呢? 老哥们有做过统计从0点开始截止到现在时刻的累计用户数吗? 比如五分钟输出一次,就是7点输出0点到7点的累计用户,7:05输出0点到7:05的累计用户。 但是我这里有多个维度,现在用redis来做的。 想知道有没有更好的姿势? 实时数仓用什么存储介质来存储维表,维表有大有小,大的大概5千万左右。 各位大神有什么建议和经验分享吗? 请教个问题,就是flink的窗口触发必须是有数据才会触发吗?我现在有个这样的需求,就是存在窗口内没有流数据进入,但是窗口结束是要触发去外部系统获取上一个窗口的结果值作为本次窗口的结果值!现在没有流数据进入窗口结束时如何触发? kafkaSource.setStartFromTimestamp(timestamp); 发现kafkasource从指定时间开始消费,有些topic有效,有效topic无效,大佬们有遇到过吗? 各位大佬,flink两个table join的时候,为什么打印不出来数据,已经赋了关联条件了,但是也不报错 各位大佬 请教一下 一个faile的任务 会在这里面存储展示多久啊? 各位大佬,我的程序每五分钟一个窗口做了基础指标的统计,同时还想统计全天的Uv,这个是用State就能实现吗? 大佬们,flink的redis sink是不是只适用redis2.8.5版本? 有CEP 源码中文注释的发出来学习一下吗? 有没有拿flink和tensorflow集成的? 那位大神,给一个java版的flink1.7 读取kafka数据,做实时监控和统计的功能的代码案例。 请问下风控大佬,flink为风控引擎做数据支撑的时候,怎么应对风控规则的不断变化,比如说登录场景需要实时计算近十分钟内登录次数超过20次用户,这个规则可能会变成计算近五分钟内登录次数超过20次的。 想了解一下大家线上Flink作业一般开始的时候都分配多少内存?广播没办法改CEP flink支持多流(大于2流)join吗? 谁能帮忙提供一下flink的多并行度的情况下,怎么保证数据有序 例如map并行度为2 那就可能出现数据乱序的情况啊 请教下现在从哪里可以可以看单任务的运行状况和内存占用情况,flink页面上能看单个任务的内存、cpu 大佬们 flink1.9 停止任务手动保存savepoint的命令是啥? flink 一个流计算多个任务和 还是一个流一个任务好? flink 1.9 on yarn, 自定义个connector里面用了jni, failover以后 就起不来了, 报错重复load so的问题。 我想问一下 这个,怎么解决。 难道flink 里面不能用jni吗。 ide里面调试没有问题,部署到集群就会报错了,可能什么问题? 请教一下对于长时间耗内存很大的任务,大家都是开checkpoint机制,采用rocksdb做状态后端吗? 请问下大佬,flink jdbc读取mysql,tinyin字段类型自动转化为Boolean有没有好的解决方法 Flink 1.9版本的Blink查询优化器,Hive集成,Python API这几个功能好像都是预览版,请问群里有大佬生产环境中使用这些功能了吗? 想做一个监控或数据分析的功能,如果我flink 的datastreaming实现消费Kafka的数据,但是我监控的规则数据会增加或修改,但是不想停这个正在运行的flink程序,要如何传递这个动态变化的规则数据,大神给个思路,是用ConnectedStream这个吗?还是用Broadcast ?还有一个,比如我的规则数据是存放在Mysql表中,用什么事件隔30秒去触发读取mysql规则表呢?谢谢! 想做一个监控或数据分析的功能,如果我flink 的datastreaming实现消费Kafka的数据,但是我监控的规则数据会增加或修改,但是不想停这个正在运行的flink程序,要如何传递这个动态变化的规则数据,大神给个思路,是用ConnectedStream这个吗?还是用Broadcast ?还有一个,比如我的规则数据是存放在Mysql表中,用什么事件隔30秒去触发读取mysql规则表呢?谢谢! 各位大佬,在一个 Job 计算过程中,查询 MySQL 来补全额外数据,是一个好的实践嘛?还是说流处理过程中应该尽量避免查询额外的数据? Flink web UI是jquery写的吗? 12月9日更新 成功做完一次checkpoint后,会覆盖上一次的checkpoint吗? 数据量较大时,flink实时写入hbase能够异步写入吗? flink的异步io,是不是只是适合异步读取,并不适合异步写入呀? 请问一下,flink将结果sink到redis里面会不会对存储的IO造成很大的压力,如何批量的输出结果呢? 大佬们,flink 1.9.0版本里DataStream api,若从kafka里加载完数据以后,从这一个流中获取数据进行两条业务线的操作,是可以的吗? flink 中的rocksdb状态怎么样能可视化的查看有大佬知道吗? 感觉flink 并不怎么适合做hive 中的计算引擎来提升hive 表的查询速度 大佬们,task端rocksdb状态 保存路径默认是在哪里的啊?我想挂载个新磁盘 把状态存到那里去 flink 的state 在窗口滑动到下一个窗口时候 上一个窗口销毁时候 state会自己清除吗? 求助各位大佬,一个sql里面包含有几个大的hop滑动窗口,如15个小时和24个小时,滑动步长为5分钟,这样就会产生很多overlap 数据,导致状态会很快就达到几百g,然后作业内存也很快达到瓶颈就oom了,然后作业就不断重启,很不稳定,请问这个业务场景有什么有效的解决方案么? 使用jdbcsink的时候,如果连接长时间不使用 就会被关掉,有人遇到过吗?使用的是ddl的方式 如何向云邪大佬咨询FLink相关技术问题? 请问各位公司有专门开发自己的实时计算平台的吗? 请问各位公司有专门开发自己的实时计算平台的吗? 有哪位大佬有cdh集成安装flink的文档或者手册? 有哪位大佬有cdh集成安装flink的文档或者手册? 想问下老哥们都是怎么统计一段时间的UV的? 是直接用window然后count嘛? Flink是不是也是这样的? 请问现在如有个实时程序,根据一个mysql的维表来清洗,但是我这个mysql表里面就只有几条信息且可能会变。 我想同一个定时器去读mysql,然后存在对象中,流清洗的时候读取这个数据,这个想法可行吗?我目前在主类里面定义一个对象,然后往里面更新,发现下面的map方法之类的读不到我更新进去的值 有大佬做过flink—sql的血缘分析吗? 12月3日更新 请教一下,为什么我flume已经登录成功了keytab认证的kafka集群,但是就是消费不到数据呢? flink 写入mysql 很长一段时间没有写入,报错怎么解决呢? flink timestamp转换为date类型,有什么函数吗 Run a single Flink job on YARN 我采用这种模式提交任务,出现无法找到 开启 HA 的ResourceManager Failed to connect to server: xxxxx:8032: retries get failed due to exceeded maximum allowed retries number: 0 有大佬遇到过吗 ? 各位大佬,请问有Flink写S3的方案吗? flink 连接hbase 只支持1.4.3版本? onnector: type: hbase version: "1.4.3" 请问 flink1.9能跑在hadoop3集群上吗? 滑动窗口 排序 报错这个是什么原因呢? 这个pravega和kafka有啥区别? flink 开发里数据源配置了RDS,但是在RDS里没有看到创建的表,是为什么呢? Tumbling Window里的数据,是等窗口期内的数据到齐之后一次性处理,还是到了一条就处理一条啊 双流join后再做time window grouping. 但是双流join会丢失时间属性,请问大家如何解决 stream processing with apache flink,这本书的中译版 现在可以买吗? flink on yarn时,jm和tm占用的内存最小是600M,这个可以修改吗? 各位大佬,使用默认的窗口Trigger,在什么情况下会触发两次啊?窗口关闭后,然后还来了这个窗口期内的数据,并且开了allowedLateness么? flink web里可以像storm那样 看每条数据在该算子中的平均耗时吗? 各位大佬,flink任务的并发数调大到160+以后,每隔几十分钟就会出现一次TM节点连接丢失的异常,导致任务重启。并发在100时运行比较稳定,哪位大佬可以提供下排查的思路? 感觉stateful function 是下一个要发力的点,这个现在有应用案例吗? 我有2个子网(a子网,b子网)用vpn联通,vpn几周可能会断一次。a子网有一个kafka集群,b子网运行我自己的flink集群和应用,b子网的flink应用连接到a子网的kafka集群接收消息来处理入库到数仓去。我的问题是,如果vpn断开,flink consumer会异常整个作业退出吗?如果作业退出,我重连vpn后,能从auto checkpoint再把flink应用恢复到出错时flink kafka consumer应该读取的partition/offset位置吗?flink的checkpoint除了保存自己开发的算子里的state,kafkaconsumer里的partition/offset也会保存和恢复吗? flink的反压为什么不加入metrics呢 hdfs是不是和flink共用一个集群? flink消费kafka,可以从指定时间消费的吗?目前提供的接口只是根据offset消费?有人知道怎么处理? flink 的Keyby是不是只是repartition而已?没有将key相同的数据放到一个组合里面 电商大屏 大家推荐用什么来做吗? 我比较倾向用数据库,因为有些数据需要join其他表,flink充当了什么角色,对这个有点迷,比如统计当天订单量,卖了多少钱,各个省的销量,销售金额,各个品类的销售量销售金额 开源1.9的sql中怎么把watermark给用起来,有大神知道吗? 有没有人能有一些flink的教程 代码之类的分享啊 采用了checkpoint,程序停止了之后,什么都不改,直接重启,还是能接着继续运行吗?如果可以的话,savepoint的意义又是什么呢? 有人做过flink 的tpc-ds测试吗,能不能分享一下操作的流程方法 checkpoint是有时间间隔的,也就可以理解为checkpoint是以批量操作的,那如果还没进行ckecnpoint就挂了,下次从最新的一次checkpoint重启,不是重复消费了? kafka是可以批量读取数据,但是flink是一条一条处理的,应该也可以一条一条提交吧。 各位大佬,flink sql目前是不是不支持tumbling window join,有人了解吗? 你们的HDFS是装在taskmanager上还是完全分开的,请问大佬们有遇到这种情况吗? 大佬们flink检查点存hdfs的话怎么自动清理文件啊 一个128M很快磁盘就满了 有谁遇到过这个问题? 请教一下各位,这段代码里面,我想加一个trigger,实现每次有数据进window时候,就输出,而不是等到window结束再输出,应该怎么加? 麻烦问下 flink on yarn 执行 客户端启动时 报上面错,是什么原因造成的 求大佬指点 ERROR org.apache.flink.client.program.rest.RestClusterClient - Error while shutting down cluster java.util.concurrent.ExecutionException: org.apache.flink.runtime.concurrent.FutureUtils$RetryException: Could not complete the operation. Number of retries has been exhausted. 大家怎么能动态的改变 flink WindowFunction 窗口数据时间 flink on yarn之后。yarn的日志目录被写满,大家如配置的? Flink1.9 启动 yarn-session报这个错误 怎么破? yarn 模式下,checkpoint 是存在 JobManager的,提交任务也是提交给 JobManager 的吧? heckpoint机制,会不会把window里面的数据全部放checkpoint里面? Flink On Yarn的模式下,如果通过REST API 停止Job,并触发savepiont呢 jenkins自动化部署flink的job,一般用什么方案?shell脚本还是api的方式? 各位大佬,开启增量checkpoint 情况下,这个state size 是总的checkpoint 大小,还是增量上传的大小? 想用状态表作为子表 外面嵌套窗口 如何实现呢 因为状态表group by之后 ctime会失去时间属性,有哪位大佬知道的? 你们有试过在同样的3台机器上部署两套kafka吗? 大家有没有比较好的sql解析 组件(支持嵌套sql)? richmapfuntion的open/close方法,和处理数据的map方法,是在同一个线程,还是不同线程调用的? flink on yarn 提交 参数 -p 20 -yn 5 -ys 3 ,我不是只启动了5个container么? Flink的乱序问题怎么解决? 我对数据流先进行了keyBy,print的时候是有数据的,一旦进行了timeWindow滑动窗口就没有数据了,请问是什么情况呢? 搭建flinksql平台的时候,怎么处理udf的呀? 怎么查看sentry元数据里哪些角色有哪些权限? 用java api写的kafka consumer能消费到的消息,但是Flink消费不到,这是为啥? 我state大小如果为2G左右 每次checkpoint会不会有压力? link-table中的udaf能用deltaTrigger么? flink1.7.2,场景是一分钟为窗口计算每分钟传感器的最高温度,同时计算当前分钟与上一分钟最高温 001 Flink集群支持kerberos认证吗?也就是说flink客户端需要向Flink集群进行kerberos认证,认证通过之后客户端才能提交作业到Flink集群运行002 Flink支持多租户吗? 如果要对客户端提交作业到flink进行访问控制,你们有类似的这种使用场景吗? flink可以同时读取多个topic的数据吗? Flink能够做实时ETL(oracle端到oracle端或者多端)么? Flink是否适合普通的关系型数据库呢? Flink是否适合普通的关系型数据库呢? 流窗口关联mysql中的维度表大佬们都是怎么做的啊? 怎么保证整个链路的exactly one episode精准一次,从source 到flink到sink? 在SQL的TUMBLE窗口的统计中,如果没数据进来的,如何让他也定期执行,比如进行count计算,让他输出0? new FlinkKafkaConsumer010[String]("PREWARNING",new JSONKeyValueDeserializationSchema(true), kafkaProps).setStartFromGroupOffsets() ) 我这样new 它说要我传个KeyedDeserializationSchema接口进去 flink里面broadcast state想定时reload怎么做?我用kafka里的stream flink独立模式高可用搭建必需要hadoop吗? 有人用增量cleanupIncrementally的方式来清理状态的嘛,感觉性能很差。 flink sink to hbase继承 RichOutputFormat运行就报错 kafka 只有低级 api 才拿得到 offset 吗? 有个问题咨询下大家,我的flinksql中有一些参数是要从mysql中获取的,比如我flink的sql是select * from aa where cc=?,这个问号的参数需要从mysql中获取,我用普通的jdbc进行连接可以获的,但是有一个问题,就是我mysql的数据改了之后必须重启flink程序才能解决这个问题,但这肯定不符合要求,请问大家有什么好的办法吗? flink里怎样实现多表关联制作宽表 flink写es,因为半夜es集群做路由,导致写入容易失败,会引起source的反压,然后导致checkpoint超时任务卡死,请问有没有办法在下游es处理慢的时候暂停上游的导入来缓解反压? flink 写parquet 文件,使用StreamingFileSink streamingFileSink = StreamingFileSink.forBulkFormat( new Path(path), ParquetAvroWriters.forReflectRecord(BuyerviewcarListLog.class)). withBucketAssigner(bucketAssigner).build(); 报错 java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS and for Hadoop version 2.7 or newer 1.7.2 NoWindowInnerJoin这个实现,我看实现了CleanupState可更新过期时间删除当前key状态的接口,是不是这个1.7.2版本即使有个流的key一直没有被匹配到他的状态也会被清理掉,就不会存在内存泄漏的问题了? flink1.7.2 想在Table的UDAF中使用State,但是发现UDAF的open函数的FunctionContext中对于RuntimeContext是一个private,无法使用,大佬,如何在Table的UDAF中使用State啊? Flink有什么性能测试工具吗? 项目里用到了了KafkaTableSourceSinkFactory和JDBCTableSourceSinkFactory。maven打包后,META-INF里只会保留第一个 标签的org.apache.flink.table.factories.TableFactory内容。然后执行时就会有找不到合适factory的报错,请问有什么解决办法吗? 为什么这个这段逻辑 debug的时候 是直接跳过的 各位大佬,以天为单位的窗口有没有遇到过在八点钟的时候会生成一条昨天的记录? 想问一下,我要做一个规则引擎,需要动态改变规则,如何在flink里面执行? flink-1.9.1/bin/yarn-session.sh: line 32: construc 我要用sql做一个规则引擎,需要动态改变规则,如何在flink里面执行? 我要用sql做一个规则引擎,需要动态改变规则,如何在flink里面执行? 一般公司的flink job有没有进程进行守护?有专门的工具或者是自己写脚本?这种情况针对flink kafka能不能通过java获取topic的消息所占空间大小? Flink container was removed这个咋解决的。我有时候没有数据的时候也出现这 大家有没有这种场景,数据从binlog消费,这个信息是订单信息,同一个订单id,会有不同状态的变更 问大家个Hive问题,新建的hive外部分区表, 怎么把HDFS数据一次性全部导入hive里 ? flink里面的broadcast state值,会出现broad流的数据还没put进mapstat Flink SQL DDL 创建表时,如何定义字段的类型为proctime? 请问下窗口计算能对历史数据进行处理吗?比如kafka里的写数据没停,窗口计算的应用停掉一段时间再开起 请问下,想统计未退费的订单数量,如果一个订单退费了(发过来一个update流),flink能做到对结果进行-1吗,这样的需求sql支持吗? 使用Flink sql时,对table使用了group by操作。然后将结果转换为流时是不是只能使用的toRetractStream方法不能使用toAppendStream方法。 百亿数据实时去重,有哪位同学实践过吗? 你们的去重容许有误差?因为bloom filter其实只能给出【肯定不存在】和【可能存在】两种结果。对于可能存在这种结果,你们会认为是同一条记录? 我就运行了一个自带的示例,一运行就报错然后web页面就崩了 flink定时加载外部数据有人做过吗? NoSuchMethodError: org.apache.flink.api.java.Utils.resolveFactory(Ljava/lang/ThreadLocal;Ljava/lang/Object;)Ljava/util/Optional 各位知道这个是那个包吗? flink 可以把大量数据写入mysql吗?比如10g flink sql 解析复杂的json可以吗? 在页面上写规则,用flink执行,怎么传递给flink? 使用cep时,如何动态添加规则? 如何基于flink 实现两个很大的数据集的交集 并集 差集? flink的应用场景是?除了实时 各位好,请教一下,滑动窗口,每次滑动都全量输出结果,外部存储系统压力大,是否有办法,只输出变化的key? RichSinkFunction close只有任务结束时候才会去调用,但是数据库连接一直拿着,最后成了数据库连接超时了,大佬们有什么好的建议去处理吗?? 为啥我的自定义函数注册,然后sql中使用不了? 请问一下各位老师,flink flapmap 中的collector.collect经常出现Buffer pool is destroyed可能是什么原因呢? 用asyncIO比直接在map里实现读hbase还慢,在和hbase交互这块儿,每个算子都加了时间统计 请教一下,在yarn上运行,会找不到 org.apache.flink.streaming.util 请问下大佬,flink1.7.2对于sql的支持是不是不怎么好啊 ,跑的数据一大就会报错。 各位大佬,都用什么来监控flink集群? flink 有那种把多条消息聚合成一条的操作吗,比如说每五十条聚合成一条 如何可以让checkpoint 跳过对齐呢? 请问 阿里云实时计算(Blink)支持这4个源数据表吗?DataHub Kafka MQ MaxCompute? 为啥checkpoint时间会越来越长,请问哪位大佬知道是因为啥呢? 请问Flink的最大并行度跟kafka partition数量有关系吗? source的并行度应该最好是跟partition数量一致吧,那剩下的算子并行度呢? Flink有 MLIB库吗,为什么1.9中没有了啊? 请教一下,有没有flink ui的文章呢?在这块内存配置,我给 TM 配置的内存只有 4096 M,但是这里为什么对不上呢?请问哪里可以看 TM 内存使用了多少呢? 请教个问题,fink RichSinkFunction的invoke方法是什么时候被调用的? 请教一下,flink的window的触发条件 watermark 小于 window 的 end_time。这个 watermark 为什么是针对所有数据的呢?没有设计为一个 key 一个 watermark 呢? 就比如说有 key1、key2、key3,有3个 watermark,有 3个 window interval不支持left join那怎么可以实现把窗口内左表的数据也写到下游呢? 各位 1、sink如何只得到最终的结果而不是也输出过程结果 ;2、不同的运算如何不借助外部系统的存储作为另外一个运算的source 请教各位一个问题,flink中设置什么配置可以取消Generic这个泛型,如图报错: 有大佬在吗,线上遇到个问题,但是明明内存还有200多G,然后呢任务cancel不了,台也取消不了程序 flink遇到The assigned slot container_1540803405745_0094_01_000008_1 was removed. 有木有大佬遇到过。在flink on yarn上跑 这个报错是什么意思呢?我使用滑动窗口的时候出现报错 flink 双流union状态过期不清理有遇到的吗? 大家有没有这种场景,数据从binlog消费,这个信息是订单信息,同一个订单id,会有不同状态的变更,如果订单表与商品明细join查询,就会出现n条重复数据,这样数据就不准了,flink 这块有没有比较好的实战经验的。 大佬们、有没有人遇到过使用一分钟的TumblingEventTimeWindows,但是没有按时触发窗口、而是一直等到下一条消息进来之后才会把这个窗口的数据发送出去的? flink 有办法 读取 pytorch的 模型文件吗? 大佬们、有没有人遇到过使用一分钟的TumblingEventTimeWindows,但是没有按时触发窗口、而是一直等到下一条消息进来之后才会把这个窗口的数据发送出去的? flink timestamp转换为date类型,有什么函数吗 flink 写入mysql 很长一段时间没有写入,报错怎么解决呢? flink 有办法 读取 pytorch的 模型文件吗? 有没有大佬知道实时报表怎么做?就是统计的结果要实时更新,热数据。 刚接触flink 1.9 求问flink run脚本中怎么没有相关提交到yarn的命令了 请教一下,flink里怎么实现batch sink的操作而不导致数据丢失
问问小秘 2019-12-02 03:19:17 0 浏览量 回答数 0

问题

【精品问答】Java技术1000问(1)

为了方便Java开发者快速找到相关技术问题和答案,开发者社区策划了Java技术1000问内容,包含最基础的如何学Java、实践中遇到的技术问题、RocketMQ面试、Java容器部署实践等维度内容。 我们会以每...
问问小秘 2019-12-01 21:57:43 46087 浏览量 回答数 16

问题

【Java学习全家桶】1460道Java热门问题,阿里百位技术专家答疑解惑

阿里极客公益活动: 或许你挑灯夜战只为一道难题 或许你百思不解只求一个答案 或许你绞尽脑汁只因一种未知 那么他们来了,阿里系技术专家来云栖问答为你解答技术难题了 他们用户自己手中的技术来帮助用户成长 本次活动特邀百位阿里技术专家对Java常...
管理贝贝 2019-12-01 20:07:15 27612 浏览量 回答数 19

问题

如何从开发阶段提升代码质量,加速迭代发布?

       引言:一个 bug 被隐藏的时间越长,修复这个bug 的代价就越大。在《快速软件开发》一书中已引用了大量的研究数据指出:最后才修改一个 bug 的代价是在 bug 产生时修改它的代价...
技术小菜鸟 2019-12-01 21:34:33 5361 浏览量 回答数 1

回答

以下整理汇总有关Mac的五十条使用技巧,能帮你更熟练的使用Mac电脑。 精确调节音量当你调节音量的同时按住Option-Shift键,将使你的音量调节单位变为原来的1/4。 通过歌词搜索音乐在Leopard下,Spotlight已经可以通过歌词来搜索音乐文件了。 向Mail中添加附件简单地通过拖拽,将文件拖到Mail图标上,Mail会自动将文件作为附件发送。 在没有鼠标或触摸板的情况下工作按Control-F1调出全键盘模式,然后按Control - F2进入菜单,或按Control - F3进入Dock。 慢放或快放在Quicktime里,你可以通过触摸板的手指滑动或利用鼠标滚轮使画面一帧一帧地前进或后退,甚至停止。 在Mail中提升或降低引用级别当我们回复邮件时,原始邮件内容被引用在邮件下方,我们可以通过按Command- '或Command-Option- '组合键“提升或降低”任意引用内容的级别。 利用地址栏(Pathbar)移动文件在Finder中,你可以通过简单拖拽文件到地址栏显示的层级文件夹中,完成文件的移动。 利用Preview(预览)剪裁图片在Preview中,选中你想要剪裁的区域,然后按Command-K,工作完成。 让你的Mac说“Hello”打开Terminal(终端),在命令行输入:say Hello,回车。你的Mac就会向你问候了。当然你也可以将hello换成其它的单词。试试看。 横向移动在cocoa程序中,例如Pages,当页面太大出现了横向滚动条时,你可以按下Shift键,再利用鼠标滚轮就可以横向移动页面了。当然,有些程序例如Photoshop,Shift键不管用,你需要按下Command键。 让Mail替你读邮件如果你实在太懒了不想自己看邮件,你可以选中邮件文字,然后选择“编辑” - “阅读”- “开始阅读”,然后你的Mac会为你朗读这些文字。遗憾的是,它不懂汉语。 Safari中建立新标签在Safari的标签栏的空白处双击鼠标,会建立一个新标签(类似于Firefox)。 放大/缩小屏幕显示按住Control键,滚动鼠标转轮就可以放大、缩小你的屏幕显示了。 隐藏所有其它窗口窗口太多太乱,按下Command-Option-H组合键,除了当前窗口以外的其它窗口会自动隐藏(不是缩小)。 使隐藏的程序在Dock上透明在Terminal(终端)中输入以下内容:defaults write com.apple.Dock showhidden -bool YES执行后,所有隐藏的程序图标在Dock上变成透明的了。 将常用项目拖到Finder的工具栏是的,你可以轻松将一些常用文件夹拖放到Finder工具栏。如果不想要了,按住Command键后再拖离工具栏就行了。 从iTunes音乐库中删除歌曲当你想要删除iTunes中的歌曲,只需要高亮歌曲名称,然后按Option-Delete,就可以从iTunes库中将歌曲完全删除。 强迫Safari在新Tab中打开链接在Terminal(终端)中输入defaults write com.apple.Safari TargetedClicksCreateTabs -bool true,执行后,Safari将始终在新Tab中打开链接。(有时候,我们在Firefox中就是这么设置的) 快速清空垃圾桶如果你在清空垃圾桶是不想看到任何烦人的提示,你可以按下:Command-Option-Shift-Delete组合键,世界清净了。(当然,这样做之前你必须确定垃圾桶里的是真正的废品) 利用Preview快速提取图标漂亮精致的图标文件其实可以用在很多场合,如文书、演示等等。不需要任何第三方软件,仅仅利用Preview,你就可以轻松做到。 移除抗锯齿当我们利用Ctrl和鼠标滚轮放大屏幕的时候,系统自动的“抗锯齿”功能自动启用,让你感觉每个字都很模糊的样子,这时候,你可以按下:Command-Option-Backslash(反斜杠””)关闭“抗锯齿”功能 Eliza的精神病办公室A. 打开Terminal(终端) B. 输入:emacsC. 按Shift-EscapeD. 输入:xdoctorE. 回答Eliza的所有问题,记得要礼貌些+ Q: z8 u; b' ^) E/ ^; [5 VF. 这是免费的:) 快速订阅RSS到Mail当你在Safari的地址栏最右侧看到RSS图标时,点击它就可以快速在Mail中订阅这个地址。 调出快捷键清单在大多数程序中,如果你想要一份详细的程序快捷键清单,那么你可以点击Leopard的help菜单,在搜索框输入:shortcuts,然后这个程序的所有快捷键就会展示给你,很酷吧。 让Mac定时启动/关闭进入Preference(设置)- Energy Saver(节能),按Schedule(计划)。 快速黑屏按下组合键Control-Shift-Eject(弹出光驱键),你的Mac屏幕就迅速黑屏了,移动鼠标或敲击任意键会自动恢复。这个功能可以在你暂时离开时节约能源,保护隐私,延长显示屏寿命。 在Finder中打开Spotlight搜索结果当你通过Spotlight搜索到文件后,按回车键就是打开这个文件,如果你按住Command然后再回车,系统会自动在Finder中打开该文件所在目录,并且高亮显示该文件。这是一个很有用的技巧。 在Mail中引用部分文字收到一封邮件,你可以选定其中的一部分内容,然后点reply(回复),你选的那部分内容会自动在回函中被引用。 把屏幕保护当成桌面这是一个超酷的功能,首先设置一个你喜欢的屏幕保护,然后进入Terminal(终端),输入:/System/Library/Frameworks/ScreenSaver.framework/Resources/ScreenSaverEngine.app/Contents/MacOS/ScreenSaverEngine -background6,看看桌面,是不是变成屏幕保护了? 不想玩儿了,就按Control - C退出。 通过Dock隐藏其它程序窗口按住Command-Option的同时,点击Dock上的程序,当程序打开时会自动隐藏其它已打开的窗口,世界再一次清净了。 自动调整Finder侧边栏宽度按下组合键Command-Option-Control-T。 区分单页和多页的PDF多页的PDF图标在左边有一个黑色夹边,而单页的没有。 快速清空Help搜索框在搜索框中输入字符,直接按回车后会打开相关内容,但是如果你按着Option键再回车,则会快速清空搜索框,你可以重新输入。 在Spotlight结果里的不同分组中跳动如果你按住Command键的同时按上下方向键,你可以在Spotlight搜索结果里的不同分组中跳动。这句话很拗口,试一试容易懂。 在Spotlight中按修改日期搜索如果你想搜索所有在2008年10月23日以前修改的文件,你可以在Spotlight中输入: <=10/23/08( l3 `) b, B, A以此类推,如果是以后的文件,把 “<” 换成 “>” 就行了。 在Finder中按名称搜索在Finder中按下组合键Command-Shift-F可以帮助你快速跳到按名称搜索框。 慢动作按住Shift键的同时执行一些命令,可以放慢动作给你看。目前已知可行的一些命令是:Spaces、Exposé、Dashboard、最小化、关闭Widgets、打开最小化的窗口。 组合Exposé 和 Space'当你按F8键激活Space后,你仍然可以Exposé所选择的Space,试试看,很有趣。 在Space中移动所有相关程序窗口假如你开了3个Safari窗口,按F8激活Space,然后按住Shift键,拖动Safari窗口到另一个Space,这时所有的3个Safari窗口都移过去了。 将不同Space中的窗口收集到一起如果在你每个Space中都有窗口,现在你想把所有窗口全部移动到一个Space中,怎么办?按F8激活Space,然后再按C键。 改变删除方向在PC中,都有一个Delete按键可以删除光标后面的字符,但在Mac电脑中Delete按键只能删除光标前面的字符。有时候很不方便。其实当你按下Fn键后再敲Delete键,就可以向后删除了。 多重选择在大多数程序中,特别是Cocoa程序,你可以按住Command键多重选择项目,包括:文件、文字等等。 获得当前日期和时间在Terminal中输入:0 @) r4 d9 l+ _3 v7 N6 q2 g4 ]! [/ h9 K: D: @5 d# r* p3 g date3 S# X- z0 r5 o% l 0 [0 ~. t$ x- d- Y得到当前Mac日期和时间; J0 B$ O$ r4 W, ]. B! W2 H- ^ }date -jnu O6 `- M, [" b8 a+ j 2 V- d. 3 w9 b1 S4 e得到当前的世界标准时间(格林威治时间UTC) C( i- i7 o4 v, I* G6 v4 c( A, L: |! E1 E7 k 快速跳入Applications Folder(程序目录)' x" u3 I3 P* W/ R( Q- N5 N1 K在Finder下,按下组合键Command-Shift-A,可以快速进入程序目录。 自动计算如果你高亮选择一个公式,比如:5*15+20.5,然后按下组合键Command-Shift-8,你的Mac会自动将高亮部分替换成正确的计算结果 95.5。注意:这需要你的电脑已开启Script Editor功能。 鼠标取词翻译系统自带的字典也支持鼠标取词翻译。当你把光标悬停在一个单词上,按下Command-Control-D,这个单词的解释就会弹出来,这时候,按住Command-Control不放,移动光标就可以对其它单词进行取词翻译了。 用Grab进行截屏Grab是Mac自带的程序,和通常的屏幕截屏不一样,用Grab截屏的好处是可以截取带有光标的屏幕,光标的样式可以在设置里选择。当然,利用Grab时间延迟功能,也能截取带菜单的截图。 获得你的Mac序列号“关于本机” ,然后双击版本号位置。 如果你忘记登陆密码放入系统安装光盘,重启Mac的同时按住C键。然后选择“安装”- “重设密码”。 最后一招,快速关机你可能每天都能用得着:Command-Control-Option-Eject(弹出光驱键)。
独步清客 2019-12-02 00:43:43 0 浏览量 回答数 0

问题

使用JMeter进行性能测试? 报错

使用JMeter进行性能测试? 400 报错 JMeter是Apache组织的开放源代码项目,它是功能和性能测试的工具,100%的用java实现。 JMeter作用领域   JMeter可以用于测试静态或...
优选2 2020-06-04 18:05:04 3 浏览量 回答数 1

问题

使用JMeter进行性能测试? 400 报错

使用JMeter进行性能测试? 400 报错 JMeter是Apache组织的开放源代码项目,它是功能和性能测试的工具,100%的用java实现。 JMeter作用领域   JMeter可以用于测试静态或...
爱吃鱼的程序员 2020-05-29 17:58:44 0 浏览量 回答数 1

问题

使用JMeter进行性能测试? 400 报错

使用JMeter进行性能测试? 400 报错 JMeter是Apache组织的开放源代码项目,它是功能和性能测试的工具,100%的用java实现。 JMeter作用领域   JMeter可以用于测试静态或...
爱吃鱼的程序员 2020-06-02 13:12:16 0 浏览量 回答数 1

回答

Re回楼主wb313457d9的帖子 后台设置方法: 1、开启远程附件 2、启用SSL链接,预留功能,即SSL加密传输。如需打开,请注释掉SDK中的定义 3、FTP服务器地址,即阿里云OSS服务器地址,目前公网地址为:oss.aliyuncs.com,如有更改, 4、FTP服务器端口,OSS服务器端口,80 5、FTP账号,即OSS_ACCESS_ID 6、FTP密码,即OSS_ACCESS_KEY 7、被动模式,定时转发功能开关 8、远程附件目录,即BUCKET名称,设定后即不能修改,如必须修改,则需要人工转移文件 9、远程访问URL,即URL/BUCKET,也就是 http://oss.aliyuncs.com/(BUCKET),前面的网址也可以由CNAME解析为你自己的域名 10、超时时间,无意义,SDK中尚无定义 11、测试远程附件,不可用,因为discuz程序的原因,本程序已带有一个简单测试程序,运行成功后删除即可。 12、允许的附件扩展名,允许使用远程附件的扩展名 13、禁止的附件扩展名,禁止使用远程附件的扩展名 14、附件尺寸下限,使用远程附件的最小文件,鉴于aliyun除了基于流量还有基于请求数的计费方式,建议特别小的文件保留在web服务器上。 15、隐藏远程附件真实路径,阿里云提供了防盗链功能,两者只能二选一,打开防盗链就不能隐藏远程附件。如果是普通应用,建议使用防盗链即可,可以有效节省服务器流量,如果使用隐藏真实路径,只能是简单的扩展存储空间,失去了OSS的带宽优势。 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 如果论坛是UTF版的,经过测试可以正常使用,但是建议将所带的文件转换为UTF文件存储。 本程序基于discuz2.5开发,对于其他版本没有测试。 请大家在 数据存储计算版面的讨论贴跟帖 http://bbs.aliyun.com/read.php?tid=120635,这里留给作者发布补充吧。 ------------------------------------------------------------------ 这阿里云论坛限制真麻烦,想发点补充没法编辑,只能跟帖。 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 都可以。 在后台设置第15项,隐藏远程附件真实路径的话就是转到空间,但是这样就不可能开启OSS自带的防盗链功能。 如果不隐藏,请开启OSS自带的防盗链功能,这样就直接在OSS下载 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 经测试,支持图片格式的OSS直接下载,其他扩展名附件暂无法直接下载。 正在开发解决方案,请等待... ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 插件包已经更新,下载后覆盖原文件即可。 帖子不能编辑,请大家一直往下看了。 ------------------------- 回7楼ap0121d6h的帖子 能给出演示吗?》 已经完全去除了二次下载功能了,不可能再有二次下载。 楼上是否完整安装了整个插件。 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 不隐藏一定要设为公共读,并且强烈建议打开防盗链功能。 ------------------------- 打开防盗链图示 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 经过测试,discuzX2.5自带的日志,相册,文章(门户)均无隐藏真实附件地址功能,所以 使用签名下载附件仅适用于discuz论坛功能。 如果需要使用论坛之外的其他功能,请关闭隐藏真实附件地址功能,并将bucket设定为公共读且添加防盗链规则。 ------------------------- 回17楼ap6214f2r的帖子 开始最初的方案就是按你的方案做的,后来感觉改动太大,又推倒重来! 为了这么几行的程序,花了几十个小时看DZ的程序。 因为替换了DZ的FTP功能,怕造成DZ运行上的问题,因为DZ不止附件上传一个地方用到FTP,所以两天后才推出测试,又之后才发布. 这正是发布的比你晚的原因. 还有一点,如果上传到OSS失败的话,我的附件会自动留在WEB服务器上成为本地附件,访客是无法察觉的,不受影响。 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 插件包已经更新,修正开启防盗链或者私有读写的论坛会出现编辑帖子时图片无法显示的错误. 感谢网友们. PS:修改的文件越来越多了,少修改discuz文件的初衷可能难以实现了. ------------------------- 回22楼facebig的帖子 请在后台打开生成略缩图功能即可。 如果之前有大量未生成略缩图的附件,且编辑时出错,请联系我,我给你个专门版本。 ------------------------- 回24楼facebig的帖子 主机在国外的话,应该是OSS大图显示更有优势了。 因为略缩图根据dz的办法是,先从OSS读取原图,然后保存到web服务器上,然后生成略缩图,然后传输给用户,然后删除图片。 ------------------------- Rediscuz附件使用OSS存储完美解决方案wb版提供下载 在DISCUZ更新文件出来之前,请修改template\default\common\misc_imgcropper.htm 文件,找到$prefix}/{$_GET['img']} 去掉中间斜杠即可。经检查,不管是本地附件还是远程附件,都会多出一个斜杠。这应该是discuz的一个BUG。 只是,我们普通服务器多一个斜杠能访问,OSS多一个斜杠就不让访问了。 ------------------------- 回33楼ap0121d6h的帖子 非也。 album是空间的图片 forum 是论坛的图片 portal 是门户的图片 略缩图是在图片的后面加后缀thumb。 DZ的机制是从OSS读取图片,然后生成略缩图,然后送给用户,反倒更慢。如果网站开始就生成略缩图的话,幻灯片应该优先调用略缩图的吧。 首页打开理论上不会调用本插件的任何文件,不会导致运行变慢。 ------------------------- 回38楼facebig的帖子 经过检查,这是防盗链造成的。 如果一定要使用裁切功能,要不勾选防盗链的 “不允许Refer为空”,没有其他办法。 如果说一定要解决的话,只能使用私有读写 签名模式,然后修改相应的文件才可以。 ------------------------- 回44楼facebig的帖子 请替换source\include\portalcp\目录下的portalcp_block.php文件,替换前请先备份原文件。 ------------------------- 回48楼facebig的帖子 BLOCK在本地,请检查本地data\attachment\block目录 ------------------------- 回51楼ap0121d6h的帖子 DZ程序某个地方应该有问题,理论上只要没有成功上传到OSS的图片都会直接显示本地的。 ------------------------- 回49楼ardong的帖子 建议不上传除了图片和rar文件到OSS,这样就不会出你这样的情况。 如果一定要实现你的功能,必须由web服务器到OSS上读取文件,然后生成原来的文件,然后发送给用户,势必造成二次下载,浪费带宽和流量。 ------------------------- 回55楼facebig的帖子 没用远程附件当然正常。 DZ会判断是否启用远程附件,是否上传成功远程附件两个条件才会调用远程附件文件。 ------------------------- 回57楼facebig的帖子 办法当然有,只是再改下去,又要改DZ的文件了,改动太多可能会带来未知的不稳定性,还有不便于论坛的版本升级。 鱼与熊掌,不可兼得啊。 ------------------------- 回59楼facebig的帖子 放心保存在OSS上,没问题的。 ------------------------- 回62楼facebig的帖子 新版已发布,删除旧版,恢复文件,然后安装新版。 下载链接不变。 ------------------------- 回49楼ardong的帖子 已经发布可选安装包,你安装后上传的文件扩展名就不会变了,但是文件名还是会改变的。 ------------------------- 回68楼taokun0611的帖子 完全不影响。 就算服务器和OSS服务器断开倒是上传到OSS不成功,附件也会存储在本机作为本地附件,不会对访问者造成任何影响。 ------------------------- 回 70楼(ardong) 的帖子 就目前测试来说,基本上没有问题。 一个论坛不是下载站,不会一直上传大文件。 比如我的论坛最大也就允许1M的附件,特殊板块和人员才有大附件。 关于提示和进度条,目前尚无法实现。这仅仅是对dz功能的补充。 ------------------------- 回 73楼(taokun0611) 的帖子 软件说明里面已经说了,会覆盖四个文件,安装前备份这四个文件就可以了。 你出现的提示应该是略缩图没有上传成功,后台关闭略缩图试试。 ------------------------- 有保存在OSS上的http://test.lh.zj.cn/bbs 文章功能DZ并不完善,楼上给一下演示。另外,dz2.5并没有发现有家园功能。 ------------------------- PHP安装的有问题。因为OSS要使用CURL组件,所以就会报错。 ------------------------- 理论上不需要。如发生错误,请根据实际情况处理。此功能在下载附件的时候,出来的文件名正确就没事,不影响图片附件。 ------------------------- 回 85楼(ioriwong) 的帖子 后台选择有无生成略缩图的?? ------------------------- 回 94楼(ioriwong) 的帖子 你的幻灯片绕过url签名处理了。 为什么不用系统自带的幻灯片功能呢? 或者你后台填写的url地址是oss.php还是直接OSS地址? oss.php就是为了你们绕过签名的应用准备的。 ------------------------- 回 98楼(ap3390i7m) 的帖子 原附件可用手动上传的方式上传到OSS,然后把本地附件地址给换掉。 但是有个问题是,除了显示,其他操作均无法进行。 后台有个附件通,可以上传下载附件,这个转移上去是跟新附件效果一样的。 ------------------------- 200G无法通过附件通转移了,太大,太耗费时间了。下载ossbox,上传到OSS,然后改论坛附件访问地址这块就好了 ------------------------- 回 103楼(html5game) 的帖子 谢谢 当时测试UTF-8时,还没这个页面。 ------------------------- 回 106楼(ap7622o2t) 的帖子 谢谢 觉得用的好,请支持118号,每天可以投五票哦。 ------------------------- 回 108楼(victor7780) 的帖子 http://bbs.aliyun.com/read.php?tid=125181&fpage=2&page=2 第16楼 有问题请反馈。 ------------------------- 回 110楼(victor7780) 的帖子 如果还不行,我记得有人说过可以用瀑布流 这些是环境问题了,靠插件解决不了了 ------------------------- 看看你的curl 支持部支持301 ------------------------- 回 114楼(victor7780) 的帖子 机制不同,首页跟版面图片实现方式不同。 ------------------------- 回 117楼(victor7780) 的帖子 不一定支持的,我用阿里云一键包就是不支持的 ------------------------- 回 119楼(victor7780) 的帖子 改下php.ini 另外,百度下要设置什么 ------------------------- 回 122楼(ms263) 的帖子 经检查,上传正常 演示 http://test.lh.zj.cn/bbs ------------------------- 问题出在1101新版更新,修改了文件,稍后请下载更新文件包。 ------------------------- 回 127楼(layayoudi) 的帖子 DZ云附件discuz2.5 1101版本更新文件,仅适用于discuz!x2.5 1101版本,其他版本勿下! 这里帖子无法编辑,今后有新更新发往插件测试论坛 http://test.lh.zj.cn/bbs ------------------------- 回 128楼(wb3134_57d9) 的帖子 附件上传有误,请大家不要下载楼上的附件,有错误,请到测试论坛下载! http://test.lh.zj.cn/bbs 阿里云的五分钟编辑限制...... ------------------------- 回 133楼(zhongyitrip) 的帖子 UTF请自行转码 这个插件原始代码就是UTF的,发布的时候转的GB ------------------------- 回 135楼(ap3390i7m) 的帖子 不能用。 ------------------------- 回 138楼(houzhipeng620) 的帖子 请按照说明到后台设置参数并开启远程附件。 ------------------------- 后台没配置好,请按照说明配置。 ------------------------- 回 149楼(chinazhang) 的帖子 目前没有明确的解决办法,原因不明。 重新安装下试试了。 ------------------------- 回 151楼(chinazhang) 的帖子 应该是阿里云的环境有问题,只是多试几遍后又会好的。
wb3134_57d9 2019-12-01 23:32:48 0 浏览量 回答数 0

问题

怎么推送高级接口?

Push 描述 推送高级接口。 请求参数 通用参数请参考公共请求参数 基础参数 名称类型是否必须描述ActionString是操作接口名称,取值:PushAppKeyLong是AppK...
猫饭先生 2019-12-01 21:55:02 817 浏览量 回答数 0

回答

ReOSS C/CSDK分享交流区 分块上传大文件时加入进度条,上传成功的片数,和总片数在哪个变量里面? 新手,找了注释,但是没有发现有用的信息,只知道应该在下面的代码 List Part 里修改。 s = oss_upload_part_from_file(options, &bucket, &object, &upload_id,                 part_num1, upload_file, &upload_part_resp_headers);         assert(200 == s->code);         //list part         list_part_resp_headers = aos_table_make(p, 5);         params = oss_create_list_upload_part_params(p);//所有分块信息存储在oss_list_upload_part_params_t的params中         aos_str_set(&params->part_number_marker, "");         params->max_ret = 10;         params->truncated = 0;         aos_list_init(&complete_part_list);         s = oss_list_upload_part(options, &bucket, &object, &upload_id, params, &list_part_resp_headers);//获取所有已上传的块信息         assert(200 == s->code);         assert(200 == s->code);         //通过aos_list_for_each_entry对part_list进行遍历。         aos_list_for_each_entry(oss_list_part_content_t, part_content1, &params->part_list, node){                 complete_content1 = oss_create_complete_part_content(p);                 aos_str_set(&complete_content1->part_number, part_content1->part_number.data);                 aos_str_set(&complete_content1->etag, part_content1->etag.data);                 aos_list_add_tail(&complete_content1->node, &complete_part_list);         } ------------------------- 回 77楼yjseu的帖子 谢谢您的回复! 您的说的这些条件里,现在就是不知道“累计上传的变量”在哪里。 文件的multipart上传,就在下面的这个函数中,什么时候上传完了,才能往下执行。 s = oss_upload_part_from_file(options, &bucket, &object, &upload_id,                 part_num1, upload_file, &upload_part_resp_headers); 我想的是另开一个线程,定时读取其中的一个参数中的“累计上传”,来完成进度条。 我猜测着是不是 oss_upload_file_t *upload_file 里面的file_last 是不是我想要的东西呢。 ------------------------- Re回 79楼yjseu的帖子 太谢谢你了! 问题解决了, 关键是 oss_upload_part_from_file上传的是Part,我误以为是文件。原来官方给的示例,是不管文件多大就文件分成两个part进行发送。 现在修改了下原来的代码,更容易理解了些,下一步准备做的就是,每上传一个part就发送消息去更新进度条。  不知道理解的正确不正确,欢迎指正撒。     aos_file_buf_t * fb = aos_create_file_buf(p);     int res = aos_open_file_for_read(p, G2U("G:\\IEDownLoad\\UCode(IOCP例程).rar"), fb);     int64_t filesize = fb->file_last;     if(filesize<100*1024)     {         AfxMessageBox("文件不能小于100KB");         return ;     }     int64_t partsize = 100 * 1024;     int64_t partupload = 0;     part_num = 1;     while(1)     {         upload_file->file_pos = partsize*(part_num-1);         upload_file->file_last = partsize*part_num; //100k         s = oss_upload_part_from_file(options, &bucket, &object, &upload_id,             part_num, upload_file, &upload_part_resp_headers);         assert(200 == s->code);         part_num++;         partupload += partsize;         if((filesize-partupload < partsize) | (filesize-partupload == partsize))         {             upload_file->file_pos = partsize*part_num;//remain content start pos             upload_file->file_last = get_file_size(G2U("G:\\IEDownLoad\\UCode(IOCP例程).rar"))-partupload;             s = oss_upload_part_from_file(options, &bucket, &object, &upload_id,                 part_num, upload_file, &upload_part_resp_headers);             assert(200 == s->code);             break;         }     } ------------------------- 回 81楼yjseu的帖子 嗯嗯,现在解决了。衷心感谢你们的努力! ------------------------- ReOSS C/CSDK分享交流区 现在有个问题就是,分块的话 不管多大的part 只能 上传成功10个,比如用100KB上传3M 文件,网站上只有1M。(程序调试没有出现错误,不知道网站有没有给错误响应) aos_table_make(p,0); 请问这个语句是什么功能? 我的test_multipart_upload_from_file(LPVOID para) 代码也贴出来吧。 UINT test_multipart_upload_from_file(LPVOID para) {     if (aos_http_io_initialize("oss_test", 0) != AOSE_OK) {         exit(1);     }     Coos_demoDlg * oos_demoDlg = (Coos_demoDlg *)para;     char *object_name = G2U(oos_demoDlg->m_sFilename);     aos_pool_t *p;     aos_string_t bucket;     aos_string_t object;     int is_oss_domain = 1;     oss_request_options_t *options;     aos_status_t *s;     oss_upload_file_t *upload_file;     aos_table_t *upload_part_resp_headers;     oss_list_upload_part_params_t *params;     aos_table_t *list_part_resp_headers;     aos_string_t upload_id;     aos_list_t complete_part_list;     oss_list_part_content_t *part_content1;     oss_complete_part_content_t *complete_content1;     aos_table_t *complete_resp_headers;     int part_num = 1;     int part_num1 = 2;     aos_pool_create(&p, NULL);     options = oss_request_options_create(p);     init_test_request_options(options, is_oss_domain);     aos_str_set(&bucket, TEST_BUCKET_NAME);     aos_str_set(&object, object_name);     //init mulitipart     s = init_test_multipart_upload(options, TEST_BUCKET_NAME, object_name, &upload_id);     assert(200 == s->code);     //upload part from file     upload_part_resp_headers = aos_table_make(p,0);     upload_file = oss_create_upload_file(p);     aos_str_set(&upload_file->filename, G2U(oos_demoDlg->m_sPath));     aos_file_buf_t * fb = aos_create_file_buf(p);     int res = aos_open_file_for_read(p,  G2U(oos_demoDlg->m_sPath), fb);     int64_t filesize = fb->file_last;     int64_t partsize;      filesize/10>100*1024? partsize = filesize/10:partsize = 100*1024;     int64_t partupload = 0;     part_num = 1;     /********** 进度条***************/     //创建用户界面线程,用于进度的显示     oos_demoDlg->m_pUIThread=AfxBeginThread(RUNTIME_CLASS(CcbCopyFile));     if (oos_demoDlg->m_pUIThread == NULL)     {         AfxMessageBox("用户界面线程启动失败!",MB_OK|MB_ICONERROR);         return 0;     }//传递参数     oos_demoDlg->m_pUIThread->PostThreadMessage(WM_THREADINFO,0,(LPARAM)(oos_demoDlg->m_sPath.GetBuffer(0)));     oos_demoDlg->m_pUIThread->PostThreadMessage(WM_THREADINFO,1,(LPARAM)"服务器");     SetTimer(oos_demoDlg->m_hWnd,1,1000,NULL);//速度统计     SetTimer(oos_demoDlg->m_hWnd,2,100,NULL);//操作计时     oos_demoDlg->m_pUIThread->PostThreadMessage(WM_THREADINFO,2,1);//启动     //////////////////////     while(1)     {         if((filesize-partupload < partsize) | (filesize-partupload == partsize))         {             upload_file->file_pos = partupload;//remain content start pos             upload_file->file_last = filesize;             s = oss_upload_part_from_file(options, &bucket, &object, &upload_id,                 part_num, upload_file, &upload_part_resp_headers);                          //**********更新进度****************/             oos_demoDlg->m_nSpeed1 = partupload;             oos_demoDlg->m_pUIThread->PostThreadMessage(WM_THREADINFO, 3,                 (LPARAM) int((partupload*1.0/filesize)*100));             /////////////////////////////             assert(200 == s->code);             break;         }         upload_file->file_pos = partsize*(part_num-1);         upload_file->file_last = partsize*part_num; //100k         s = oss_upload_part_from_file(options, &bucket, &object, &upload_id,             part_num, upload_file, &upload_part_resp_headers);         part_num++;         partupload += partsize;         //**********更新进度****************/         oos_demoDlg->m_nSpeed1 = partupload;         oos_demoDlg->m_pUIThread->PostThreadMessage(WM_THREADINFO, 3,             (LPARAM) int((partupload*1.0/filesize)*100));         /////////////////////////////         assert(200 == s->code);     }     //发送结束消息,用于关闭进度显示模块     oos_demoDlg->m_pUIThread->PostThreadMessage(WM_THREADINFO, 10, 1);     oos_demoDlg->KillTimer(1);     oos_demoDlg->KillTimer(2);     //////////////////     //list part     list_part_resp_headers = aos_table_make(p, 0);     params = oss_create_list_upload_part_params(p);//所有分块信息存储在oss_list_upload_part_params_t的params中     aos_str_set(&params->part_number_marker, "");     params->max_ret = 10;     params->truncated = 0;     aos_list_init(&complete_part_list);     s = oss_list_upload_part(options, &bucket, &object, &upload_id, params, &list_part_resp_headers);//获取所有已上传的块信息     assert(200 == s->code);     //通过aos_list_for_each_entry对part_list进行遍历。     aos_list_for_each_entry(oss_list_part_content_t, part_content1, &params->part_list, node){         complete_content1 = oss_create_complete_part_content(p);         aos_str_set(&complete_content1->part_number, part_content1->part_number.data);         aos_str_set(&complete_content1->etag, part_content1->etag.data);         aos_list_add_tail(&complete_content1->node, &complete_part_list);     }     //complete multipart     complete_resp_headers = aos_table_make(p, 0);     s = oss_complete_multipart_upload(options, &bucket, &object, &upload_id,         &complete_part_list, &complete_resp_headers);    //接口,完成分块上传     assert(200 == s->code);     aos_pool_destroy(p);     AfxMessageBox("上传成功");     //delete object_name;     aos_http_io_deinitialize();     return 0; } ------------------------- ReOSS C/CSDK分享交流区 可算搞定了,params->max_ret = 10; 应该就是最大Part数,真是一步一艰难啊 虽然还是有好多语句不懂,
小弟叶良辰 2019-12-02 02:32:04 0 浏览量 回答数 0

问题

对症下药:Tomcat停机过程分析与线程处理方法

工作中经常遇到因为Tomcat shutdown时自身创建的线程没有及时停止而引起的各种莫名其妙的报错,这篇文章将通过对Tomcat停机过程的梳理,讨论产生这些错误的原因,同时提出了两个可行的解决办...
驻云科技 2019-12-01 21:36:46 4001 浏览量 回答数 0

问题

【javascript学习全家桶】934道javascript热门问题,阿里百位技术专家答疑解惑

阿里极客公益活动:或许你挑灯夜战只为一道难题或许你百思不解只求一个答案或许你绞尽脑汁只因一种未知那么他们来了,阿里系技术专家来云栖问答为你解答技术难题了他们用户自己手中的技术来帮助用户成长本次活动特邀百位阿里技术专家对javascript常...
管理贝贝 2019-12-01 20:07:22 6202 浏览量 回答数 1

云产品推荐

上海奇点人才服务相关的云产品 小程序定制 上海微企信息技术相关的云产品 国内短信套餐包 ECS云服务器安全配置相关的云产品 开发者问答 阿里云建站 自然场景识别相关的云产品 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 阿里云AIoT