• 关于

    vs api

    的搜索结果

问题

API dome移植到vs2010无法发送短信。

1143711353451316 2020-10-18 21:05:13 0 浏览量 回答数 0

回答

服务地址 API 的服务接入地址,如下所示: 地域 服务地址 华东2 vs.cn-shanghai.aliyuncs.com 华北1 vs.cn-qingdao.aliyuncs.com 华南1 vs.cn-shenzhen.aliyuncs.com 说明 vs.cn-xxx.aliyuncs.com 指定了视频监控的服务接入地址(Endpoint)。 通信协议 为了获得更高的安全性,仅支持使用 HTTPS 通道发送API请求。 字符编码 请求及返回结果都使用 UTF-8 字符集进行编码。

保持可爱mmm 2020-03-29 16:12:38 0 浏览量 回答数 0

问题

OSS的SDK(.NET4.5)

ap3600w2w 2019-12-01 20:25:44 14391 浏览量 回答数 6

阿里云高校特惠,助力学生创业梦!0元体验,快速入门云计算!

学生动手场景应用,快速了解并掌握云服务器的各种新奇玩法!

问题

OSSSDK(.NET4.5)

ap3600w2w 2019-12-01 20:25:42 11022 浏览量 回答数 8

问题

开发了一个.net版本的服务端API示例,基于WebApi,async/task

妖刀诸葛 2019-12-01 21:44:23 13633 浏览量 回答数 24

问题

新手学习c++,使用vs的疑惑

a123456678 2019-12-01 20:06:17 962 浏览量 回答数 1

回答

Re开发了一个.net版本的服务端API示例,基于WebApi,async/task 感谢感谢可以下载下来直接运行  我的是vs2017

阿波_007 2019-12-02 00:44:57 0 浏览量 回答数 0

问题

关于Dll操作的小结(有疑问)?报错

爱吃鱼的程序员 2020-06-14 16:51:57 0 浏览量 回答数 1

回答

因为一些性能的问题,在Windows7 和 Windows Server 2008 R2 系统上,微软把一些API函数从Psapi.dll 移到了 Kernel32.dll 动态库中,并在VS2010编译器自带的 WinSDK v7.0版本上面做了处理。这样的设计在Windows7 和 Windows Server 2008 R2系统上面没有问题,但是如果你用vs2010编译的程序运行在Win7之前的系统上,那么肯定会遇到刚才说的错误。因为老系统的KERNEL32.dll中根本没有那些被移植过去的函数,所以肯定会执行失败。 解决方案就是将 PSAPI_VERSION 定义为小于等于1的数值就可以啦,如下: 要加在#include <Psapi.h>上面 #ifndef PSAPI_VERSION#define PSAPI_VERSION  1#endif  如果该回答对您有帮助的话,麻烦点击采纳此答案

叶康铭 2019-12-02 00:55:35 0 浏览量 回答数 0

回答

因为一些性能的问题,在Windows7 和 Windows Server 2008 R2 系统上,微软把一些API函数从Psapi.dll 移到了 Kernel32.dll 动态库中,并在VS2010编译器自带的 WinSDK v7.0版本上面做了处理。这样的设计在Windows7 和 Windows Server 2008 R2系统上面没有问题,但是如果你用vs2010编译的程序运行在Win7之前的系统上,那么肯定会遇到刚才说的错误。因为老系统的KERNEL32.dll中根本没有那些被移植过去的函数,所以肯定会执行失败。 解决方案就是将 PSAPI_VERSION 定义为小于等于1的数值就可以啦,如下: 要加在#include <Psapi.h>上面 #ifndef PSAPI_VERSION#define PSAPI_VERSION  1#endif  如果该回答对您有帮助的话,麻烦点击采纳此答案

叶康铭 2019-12-02 00:55:36 0 浏览量 回答数 0

问题

关于dll中全局变量的问题 400 请求报错 

kun坤 2020-05-30 14:30:23 0 浏览量 回答数 1

回答

我们是否还需要另外一个新的数据处理引擎?当我第一次听到flink的时候这是我是非常怀疑的。在大数据领域,现在已经不缺少数据处理框架了,但是没有一个框架能够完全满足不同的处理需求。自从Apache spark出现后,貌似已经成为当今把大部分的问题解决得最好的框架了,所以我对另外一款解决类似问题的框架持有很强烈的怀疑态度。 不过因为好奇,我花费了数个星期在尝试了解flink。一开始仔细看了flink的几个例子,感觉和spark非常类似,心理就倾向于认为flink又是一个模仿spark的框架。但是随着了解的深入,这些API体现了一些flink的新奇的思路,这些思路还是和spark有着比较明显的区别的。我对这些思路有些着迷了,所以花费了更多的时间在这上面。 flink中的很多思路,例如内存管理,dataset API都已经出现在spark中并且已经证明 这些思路是非常靠谱的。所以,深入了解flink也许可以帮助我们分布式数据处理的未来之路是怎样的 在后面的文章里,我会把自己作为一个spark开发者对flink的第一感受写出来。因为我已经在spark上干了2年多了,但是只在flink上接触了2到3周,所以必然存在一些bias,所以大家也带着怀疑和批判的角度来看这篇文章吧。 Apache Flink是什么 flink是一款新的大数据处理引擎,目标是统一不同来源的数据处理。这个目标看起来和spark和类似。没错,flink也在尝试解决spark在解决的问题。这两套系统都在尝试建立一个统一的平台可以运行批量,流式,交互式,图处理,机器学习等应用。所以,flink和spark的目标差别并不大,他们最主要的区别在于实现的细节。 后面我会重点从不同的角度对比这两者。 Apache Spark vs Apache Flink 1.抽象 Abstraction spark中,对于批处理我们有RDD,对于流式,我们有DStream,不过内部实际还是RDD.所以所有的数据表示本质上还是RDD抽象。 后面我会重点从不同的角度对比这两者。在flink中,对于批处理有DataSet,对于流式我们有DataStreams。看起来和spark类似,他们的不同点在于: 一)DataSet在运行时是表现为运行计划(runtime plans)的 在spark中,RDD在运行时是表现为java objects的。通过引入Tungsten,这块有了些许的改变。但是在flink中是被表现为logical plan(逻辑计划)的,听起来很熟悉?没错,就是类似于spark中的dataframes。所以在flink中你使用的类Dataframe api是被作为第一优先级来优化的。但是相对来说在spark RDD中就没有了这块的优化了。 flink中的Dataset,对标spark中的Dataframe,在运行前会经过优化。 在spark 1.6,dataset API已经被引入spark了,也许最终会取代RDD 抽象。 二)Dataset和DataStream是独立的API 在spark中,所有不同的API,例如DStream,Dataframe都是基于RDD抽象的。但是在flink中,Dataset和DataStream是同一个公用的引擎之上两个独立的抽象。所以你不能把这两者的行为合并在一起操作,当然,flink社区目前在朝这个方向努力( https://issues.apache.org/jira/browse/FLINK-2320),但是目前还不能轻易断言最后的结果。 2.内存管理 一直到1.5版本,spark都是试用java的内存管理来做数据缓存,明显很容易导致OOM或者gc。所以从1.5开始,spark开始转向精确的控制内存的使用,这就是tungsten项目了 flink从第一天开始就坚持自己控制内存试用。这个也是启发了spark走这条路的原因之一。flink除了把数据存在自己管理的内存以外,还直接操作二进制数据。在spark中,从1.5开始,所有的dataframe操作都是直接作用在tungsten的二进制数据上。 3.语言实现 spark是用scala来实现的,它提供了Java,Python和R的编程接口。 flink是java实现的,当然同样提供了Scala API 所以从语言的角度来看,spark要更丰富一些。因为我已经转移到scala很久了,所以不太清楚这两者的java api实现情况。 4.API spark和flink都在模仿scala的collection API.所以从表面看起来,两者都很类似。下面是分别用RDD和DataSet API实现的word count // Spark wordcount object WordCount { def main(args: Array[String]) { val env = new SparkContext("local","wordCount") val data = List("hi","how are you","hi") val dataSet = env.parallelize(data) val words = dataSet.flatMap(value => value.split("\\s+")) val mappedWords = words.map(value => (value,1)) val sum = mappedWords.reduceByKey(_+_) println(sum.collect()) } } // Flink wordcount object WordCount { def main(args: Array[String]) { val env = ExecutionEnvironment.getExecutionEnvironment val data = List("hi","how are you","hi") val dataSet = env.fromCollection(data) val words = dataSet.flatMap(value => value.split("\\s+")) val mappedWords = words.map(value => (value,1)) val grouped = mappedWords.groupBy(0) val sum = grouped.sum(1) println(sum.collect()) } } 不知道是偶然还是故意的,API都长得很像,这样很方便开发者从一个引擎切换到另外一个引擎。我感觉以后这种Collection API会成为写data pipeline的标配。 Steaming spark把streaming看成是更快的批处理,而flink把批处理看成streaming的special case。这里面的思路决定了各自的方向,其中两者的差异点有如下这些: 实时 vs 近实时的角度 flink提供了基于每个事件的流式处理机制,所以可以被认为是一个真正的流式计算。它非常像storm的model。 而spark,不是基于事件的粒度,而是用小批量来模拟流式,也就是多个事件的集合。所以spark被认为是近实时的处理系统。 Spark streaming 是更快的批处理,而Flink Batch是有限数据的流式计算。 虽然大部分应用对准实时是可以接受的,但是也还是有很多应用需要event level的流式计算。这些应用更愿意选择storm而非spark streaming,现在,flink也许是一个更好的选择。 流式计算和批处理计算的表示 spark对于批处理和流式计算,都是用的相同的抽象:RDD,这样很方便这两种计算合并起来表示。而flink这两者分为了DataSet和DataStream,相比spark,这个设计算是一个糟糕的设计。 对 windowing 的支持 因为spark的小批量机制,spark对于windowing的支持非常有限。只能基于process time,且只能对batches来做window。 而Flink对window的支持非常到位,且Flink对windowing API的支持是相当给力的,允许基于process time,data time,record 来做windowing。 我不太确定spark是否能引入这些API,不过到目前为止,Flink的windowing支持是要比spark好的。 Steaming这部分flink胜 SQL interface 目前spark-sql是spark里面最活跃的组件之一,Spark提供了类似Hive的sql和Dataframe这种DSL来查询结构化数据,API很成熟,在流式计算中使用很广,预计在流式计算中也会发展得很快。 至于flink,到目前为止,Flink Table API只支持类似DataFrame这种DSL,并且还是处于beta状态,社区有计划增加SQL 的interface,但是目前还不确定什么时候才能在框架中用上。 所以这个部分,spark胜出。 Data source Integration Spark的数据源 API是整个框架中最好的,支持的数据源包括NoSql db,parquet,ORC等,并且支持一些高级的操作,例如predicate push down Flink目前还依赖map/reduce InputFormat来做数据源聚合。 这一场spark胜 Iterative processing spark对机器学习的支持较好,因为可以在spark中利用内存cache来加速机器学习算法。 但是大部分机器学习算法其实是一个有环的数据流,但是在spark中,实际是用无环图来表示的,一般的分布式处理引擎都是不鼓励试用有环图的。 但是flink这里又有点不一样,flink支持在runtime中的有环数据流,这样表示机器学习算法更有效而且更有效率。 这一点flink胜出。 Stream as platform vs Batch as Platform Spark诞生在Map/Reduce的时代,数据都是以文件的形式保存在磁盘中,这样非常方便做容错处理。 Flink把纯流式数据计算引入大数据时代,无疑给业界带来了一股清新的空气。这个idea非常类似akka-streams这种。 成熟度 目前的确有一部分吃螃蟹的用户已经在生产环境中使用flink了,不过从我的眼光来看,Flink还在发展中,还需要时间来成熟。 结论 目前Spark相比Flink是一个更为成熟的计算框架,但是Flink的很多思路很不错,Spark社区也意识到了这一点,并且逐渐在采用Flink中的好的设计思路,所以学习一下Flink能让你了解一下Streaming这方面的更迷人的思路。 答案来源网络,供参考,希望对您有帮助

问问小秘 2019-12-02 02:19:11 0 浏览量 回答数 0

问题

如何为本地Docker或Kubernetes中运行的ASP.NET Core应用程序连接本地SQL Server数据库?

k8s小能手 2019-12-01 19:30:52 765 浏览量 回答数 1

问题

vs2015引用aliyun-net-sdk-core-1.1.9 aliyun-net-sdk-push-3.10.0 系统报错。

ids40 2019-12-01 19:42:29 446 浏览量 回答数 0

回答

Re开发了一个.net版本的服务端API示例,基于WebApi,async/task 实现了主要的功能有:获取AccessToken,(用的是我注册的开发者账号,在DingTalkConfig这个文件里面改成自己的),部门的增删查改,员工的增删查改,三种文件的上传下载,发送各种企业会话消息,如果要其他的功能,按照官方文档开发即可,省时省力,其中,官方API的地址,我保存在DingTalkAddressConfig.json这个文件中,增加接口的话,要把地址保存在这个文件,并在DingTalkServerAddressConfig声明同名属性,会自动加载 ------------------------- 回 7楼amyqq的帖子 你百度一下Nuget,点击项目的还原程序包,会去服务器下载依赖包 ------------------------- 回 6楼landonzeng的帖子 我用了C#6和C#7的语法,你的不支持,可能要升级VS

妖刀诸葛 2019-12-02 00:44:53 0 浏览量 回答数 0

问题

有没有适合外行学习的简单 GUI 制作教程?

a123456678 2019-12-01 19:44:28 822 浏览量 回答数 1

问题

是否可以从机器人框架关键字转到python方法定义?

祖安文状元 2020-02-23 16:44:28 0 浏览量 回答数 1

回答

步骤1:配置开发环境 配置开发环境-Mac环境 前提条件 已安装Node.js。 Node.js版本建议为8系统,推荐8.10。 若未安装,请下载操作系统对应的安装包进行安装。 已安装VS Code。 若未安装,请下载操作系统对应的安装包进行安装。 操作步骤 打开Bash软件。 执行以下命令,安装Honeycomb。 sudo npm install honeycomb-cli -g 执行以下命令,配置Honeycomb。 honeycomb config registry registry=https://registry.npm.taobao.org 选择需要创建应用的文件夹,执行以下命令,初始化城市大脑应用。 cd $app_root //请根据实际情况替换 honeycomb init -t brain 初始化成功后,对应文件夹下会生成代码目录,如下图所示。 安装cnpm。 sudo npm install -g cnpm --registry=https://registry.npm.taobao.org 执行以下命令,安装运行依赖环境。 make install 若遇到如下错误: xcrun: error: invalid active developer path (/Library/Developer/CommandLineTools), missing xcrun at: /Library/Developer/CommandLineTools/usr/bin/xcrun 请执行以下命令。 xcode-select –install 执行以下命令,安装阿里云API网关的依赖。 cnpm install aliyun-api-gateway -S 执行以下命令,启动项目。 honeycomb start 启动项目成功后,访问 http://localhost:8001/app/app-name,即可在本地环境中查看运行效果,如下图所示。 注意:启动项目成功后,请不要关掉Bash窗口。 配置开发环境-Windows环境 前提条件 已安装Node.js。 Node.js版本建议为8系统,推荐8.10。 若未安装,请下载操作系统对应的安装包进行安装。 已安装VS Code。 若未安装,请下载操作系统对应的安装包进行安装。 已完成gitbash的安装。 若未安装,请下载操作系统对应的安装包进行安装。 注意事项: 选择安装目录 c:\lib\git。 出现git命令工具和cmd相关的选项(3选1的场景),请选择第三个。 安装工具包补丁。 下载如下工具包,解压,将里面所有的文件copy到 GitBash 安装目录下的 usr\bin\ 中。此例中为 c:\lib\git\usr\bin\。 cmd-tools.zip

剑曼红尘 2020-03-24 15:23:09 0 浏览量 回答数 0

回答

    hwnd = win32gui.GetDesktopWindow() print hwnd dc = win32gui.GetWindowDC(hwnd) print dc colour = win32gui.GetPixel(dc, 100, 100) print colour 没有问题 ######我也试了,是没问题,应该是我获取的那个窗口有问题###### GetPixel第一个参数应该是HDC类型,不应该是HWND###### 引用来自“sToa”的答案 GetPixel第一个参数应该是HDC类型,不应该是HWND 我的代码是这样的 hwnd = FindWindow(None, "某个窗口标题") GetPixel(hwnd, 0, 0) FindWindow函数文档说FindWindow返回 PyHANDLE类型 GetPixel第一个参数亦接受PyHANDLE类型 ###### 引用来自“走过海”的答案 引用来自“sToa”的答案 GetPixel第一个参数应该是HDC类型,不应该是HWND 我的代码是这样的 hwnd = FindWindow(None, "某个窗口标题") GetPixel(hwnd, 0, 0) FindWindow函数文档说FindWindow返回 PyHANDLE类型 GetPixel第一个参数亦接受PyHANDLE类型 不对,这个是直接包装的windows api,你看下 http://stackoverflow.com/questions/19623135/pywin32-win32gui-getpixel-fails-predictably-near-10-000th-call http://msdn.microsoft.com/en-us/library/windows/desktop/dd144909(v=vs.85).aspx 而且win32gui__GetPixel第一个参数也是要个hdc http://docs.activestate.com/activepython/2.5/pywin32/win32gui__GetPixel_meth.html ###### 引用来自“sToa”的答案 引用来自“走过海”的答案 引用来自“sToa”的答案 GetPixel第一个参数应该是HDC类型,不应该是HWND 我的代码是这样的 hwnd = FindWindow(None, "某个窗口标题") GetPixel(hwnd, 0, 0) FindWindow函数文档说FindWindow返回 PyHANDLE类型 GetPixel第一个参数亦接受PyHANDLE类型 不对,这个是直接包装的windows api,你看下 http://stackoverflow.com/questions/19623135/pywin32-win32gui-getpixel-fails-predictably-near-10-000th-call http://msdn.microsoft.com/en-us/library/windows/desktop/dd144909(v=vs.85).aspx 而且win32gui__GetPixel第一个参数也是要个hdc http://docs.activestate.com/activepython/2.5/pywin32/win32gui__GetPixel_meth.html 我获取了窗口DC也失败了 hdc = GetWindowDC(hwnd) GetPixel(hdc, 0, 0) 还是一样的错误提示。。

爱吃鱼的程序员 2020-06-03 16:40:48 0 浏览量 回答数 0

问题

如何从源代码运行 VS Code??报错

爱吃鱼的程序员 2020-06-08 12:46:06 0 浏览量 回答数 1

回答

引用来自“jorneyr”的评论 所有QWidget的对象都要在QApplication对象创建后才能创建回复 @jorneyr:哦,但是把Qt4控件的Dll文件,复制到Qt5的相应目录(比如C:\Qt\Qt5.5.1_32Bit_VS2010\5.5\msvc2010\plugins\designer),结果Qt5的Designer不加载呢?见下图那样:Widget上Qt4和Qt5没有任何区别,唯一不同的是在.pro文件里引用的模块名不一样qt5不兼容qt4吧,把那个控件用Qt5重新编译一遍 看这个错误提示,就好像是这个控件不认识Qt5的QApplication,只认识Qt4的QApplication.如果有办法解决那是最好了.我也好想这样的,但是拿不到控件的源码,是人家写的. 所有QWidget的对象都要在QApplication对象创建后才能创建 引用来自“jorneyr”的评论 所有QWidget的对象都要在QApplication对象创建后才能创建 把Qt4控件的Dll文件,复制到Qt5的相应目录(比如C:\Qt\Qt5.5.1_32Bit_VS2010\5.5\msvc2010\plugins\designer),结果Qt5的Designer不加载,提示验证数据不匹配,不知具体是哪里不匹配呢??但是复制到Qt4的对应目录,则会在Qt4的Designer的WidgetBox里添加控件成功.问题是不是就出在这里啊??如果Qt5成功加载Qt4的控件, 就可以在Qt5里使用Qt4的控件,对不?? 回复 @jorneyr:哦,好吧,谢谢.看来还得用Qt5编译,才能在Qt5中使用.DLL不通用,代码通用,ABI与API的关系

爱吃鱼的程序员 2020-06-10 14:21:03 0 浏览量 回答数 0

回答

Xutils这个框架非常全面,可以进行网络请求,可以进行图片加载处理,可以数据储存,还可以对view进行注解,使用这个框架非常方便,但是缺点也是非常明显的,使用这个项目,会导致项目对这个框架依赖非常的严重,一旦这个框架出现问题,那么对项目来说影响非常大的。、 OKhttp:Android开发中是可以直接使用现成的api进行网络请求的。就是使用HttpClient,HttpUrlConnection进行操作。okhttp针对Java和Android程序,封装的一个高性能的http请求库,支持同步,异步,而且okhttp又封装了线程池,封装了数据转换,封装了参数的使用,错误处理等。API使用起来更加的方便。但是我们在项目中使用的时候仍然需要自己在做一层封装,这样才能使用的更加的顺手。 Volley:Volley是Google官方出的一套小而巧的异步请求库,该框架封装的扩展性很强,支持HttpClient、HttpUrlConnection, 甚至支持OkHttp,而且Volley里面也封装了ImageLoader,所以如果你愿意你甚至不需要使用图片加载框架,不过这块功能没有一些专门的图片加载框架强大,对于简单的需求可以使用,稍复杂点的需求还是需要用到专门的图片加载框架。Volley也有缺陷,比如不支持post大数据,所以不适合上传文件。不过Volley设计的初衷本身也就是为频繁的、数据量小的网络请求而生。 Retrofit:Retrofit是Square公司出品的默认基于OkHttp封装的一套RESTful网络请求框架,RESTful是目前流行的一套api设计的风格, 并不是标准。Retrofit的封装可以说是很强大,里面涉及到一堆的设计模式,可以通过注解直接配置请求,可以使用不同的http客户端,虽然默认是用http ,可以使用不同Json Converter 来序列化数据,同时提供对RxJava的支持,使用Retrofit + OkHttp + RxJava + Dagger2 可以说是目前比较潮的一套框架,但是需要有比较高的门槛。 Volley VS OkHttp Volley的优势在于封装的更好,而使用OkHttp你需要有足够的能力再进行一次封装。而OkHttp的优势在于性能更高,因为 OkHttp基于NIO和Okio ,所以性能上要比 Volley更快。IO 和 NIO这两个都是Java中的概念,如果我从硬盘读取数据,第一种方式就是程序一直等,数据读完后才能继续操作这种是最简单的也叫阻塞式IO,还有一种是你读你的,程序接着往下执行,等数据处理完你再来通知我,然后再处理回调。而第二种就是 NIO 的方式,非阻塞式, 所以NIO当然要比IO的性能要好了,而 Okio是 Square 公司基于IO和NIO基础上做的一个更简单、高效处理数据流的一个库。理论上如果Volley和OkHttp对比的话,更倾向于使用 Volley,因为Volley内部同样支持使用OkHttp,这点OkHttp的性能优势就没了, 而且 Volley 本身封装的也更易用,扩展性更好些。 OkHttp VS Retrofit 毫无疑问,Retrofit 默认是基于 OkHttp 而做的封装,这点来说没有可比性,肯定首选 Retrofit。 Volley VS Retrofit 这两个库都做了不错的封装,但Retrofit解耦的更彻底,尤其Retrofit2.0出来,Jake对之前1.0设计不合理的地方做了大量重构, 职责更细分,而且Retrofit默认使用OkHttp,性能上也要比Volley占优势,再有如果你的项目如果采用了RxJava ,那更该使用 Retrofit 。所以这两个库相比,Retrofit更有优势,在能掌握两个框架的前提下该优先使用 Retrofit。但是Retrofit门槛要比Volley稍高些,要理解他的原理,各种用法,想彻底搞明白还是需要花些功夫的,如果你对它一知半解,那还是建议在商业项目使用Volley吧。

剑曼红尘 2020-04-10 12:53:23 0 浏览量 回答数 0

问题

Java概述

云栖大讲堂 2019-12-01 21:09:10 1183 浏览量 回答数 0

问题

IE 9 DOM 元素的 style.setProperty() 参数无效 Bug:报错

kun坤 2020-06-06 22:12:45 3 浏览量 回答数 1

问题

IE 9 DOM元素的style.setProperty()参数无效403.10 禁止访问:配置无效

kun坤 2020-05-27 18:06:49 7 浏览量 回答数 1

问题

.NETSDK开发包(20140626总是异常!!

5thapple 2019-12-01 22:06:41 7445 浏览量 回答数 2

回答

智能云相册中管理了多种对象,包括PhotoStore、照片库、照片、相簿、人脸(面孔)、时光,标签等。这些对象的状态以及对象间关系状态会随着用户的操作发生变化,了解这些状态的含义及其变化有助于使用智能云相册的API。 数据模型 智能云相册的内部数据模型如下图所示: data-model 阿里云用户为购买智能云相册的用户,一个阿里云用户可以有多个PhotoStore,一个PhotoStore只能属于一个阿里云用户。 一个PhotoStore可以有多个照片库,一个照片库只属于一个PhotoStore。 一个照片库可以有多张照片。 照片和相簿、人脸、标签之间都是多对多的关系,即一张照片可以属于多个相簿,一个相簿可以关联多张照片。 时光和照片是一对多的关系,一张照片只能属于一个时光相册,一个时光相册可以包含多张照片。 对象的状态变化 照片的状态变化 照片的状态如下: staging:待发布状态 active:正常状态 inactive:逻辑删除状态 deleted:物理删除状态 照片上传以后默认的初始状态为active正常状态,在这种情况下照片的状态变化和触发条件如下图所示: photo-state 智能云相册支持上传照片时将照片的初始状态设置为staging待发布状态,在这种情况下照片的状态变化和触发条件如下图所示: photo-state-staging 注:参见照片审核,了解如何采用staging状态实现照片审核功能。 相簿的状态变化 相簿的状态如下: active:正常状态 deleted:物理删除 相簿的状态变化和触发条件如下图所示: album-state 人脸的状态变化 人脸的状态如下: active:正常状态 inactive:逻辑删除 deleted:物理删除 人脸的状态变化和触发条件如下图所示: fac-state 注:当人脸下的照片都被物理删除了,人脸也会被删除。 时光的状态变化 时光的状态如下: active:正常状态 inactive:物理删除 时光的状态变化和触发条件如下图所示: moment-state 注:时光是智能云相册对照片分析后自动生成的,不可被手动删除。 对象之间关系的变化 当一张照片被加入到一个相簿时、当一张照片被识别出一张人脸时、当一个时光自动生成时、当一张照片被自动打标时,这张照片就和相簿、人脸,时光和标签建立关系。它们之间的关系一旦建立就不会消失,只会随着用户的操作发生变化。 照片和相簿的关系变化 照片和相簿之间的关系有以下两个状态: active:正常,表示照片属于相簿 removed:移除,表示照片已从相簿中移除 状态变化的触发条件如下图所示: photo_vs_album 照片和人脸的关系变化 照片和人脸之间的关系有以下两个状态: active:正常,表示照片属于该人脸 removed:移除,表示照片已从该人脸中移除 状态变化的触发条件如下图所示: photo_vs_face 照片和时光的关系变化 照片和时光之间的关系有以下两个状态: active:正常,表示照片属于该时光 removed:移除,表示照片已从该时光中移除 状态变化的触发条件如下图所示: photo_vs_moment 照片和标签的关系变化 照片和标签之间的关系有以下两个状态: active:正常,表示照片有该标签 removed:移除,表示照片已从该标签中已移除 状态变化的触发条件如下图所示: photo_vs_tag

1934890530796658 2020-03-31 13:21:11 0 浏览量 回答数 0

问题

Java 使用 Jacob 调用 COM 接口大漠插件 dm.dll 报错?报错

爱吃鱼的程序员 2020-06-07 22:17:51 0 浏览量 回答数 1

回答

公共参数指的是所有接口调用都需要用到的参数,包含公共请求参数和公共返回参数两种。 公共请求参数 公共请求参数是指每个接口都需要使用到的请求参数。 名称 类型 是否必选 描述 Version String 是 API 版本号。 格式:YYYY-MM-DD。 本版本对应为 2018-12-12。 AccessKeyId String 是 阿里云颁发给用户的访问服务所用的密钥 ID。 Signature String 是 签名结果串。 关于签名的计算方法,参见签名机制。 SignatureMethod String 是 签名方式,目前支持 HMAC-SHA1。 Timestamp String 是 请求的时间戳。 日期格式按照 ISO8601 标准表示,并需要使用 UTC 时间。 格式:YYYY-MM-DDThh:mm:ssZ。 例如:2014-05-26T12:00:00Z(为北京时间 2014 年 5 月 26 日 20 点 0 分 0 秒)。 SignatureVersion String 是 签名算法版本。目前版本是 1.0。 SignatureNonce String 是 唯一随机数,用于防止网络重放攻击。用户在不同请求间要使用不同的随机数值。 ResourceOwnerAccount String 否 本次 API 请求访问到的资源拥有者账户,即登录用户名。 此参数的使用方法,参见 RAM资源授权。(只能在 RAM 中可对 live 资源进行授权的 Action 中才能使用此参数,否则访问会被拒绝。) Format String 否 返回值的类型,支持 JSON 与 XML。默认值:XML 示例 https://vs.aliyuncs.com/ ?Format=json &Version=2018-12-12 &Signature=Pc5WB8gokVn0xfeu%2FZV%2BiNM1dgI%3D &SignatureMethod=HMAC-SHA1 &SignatureNonce=15215528852396 &SignatureVersion=1.0 &AccessKeyId=key-test &Timestamp=2012-06-01T12:00:00Z … 公共返回参数 用户发送的每次接口调用请求,无论成功与否,系统都会返回一个唯一识别码 RequestId 给用户。 示例 XML示例 <?xml version="1.0" encoding="UTF-8"?> <!--结果的根结点--> <接口名称+Response> <!--返回请求标签--> <RequestId>4C467B38-3910-447D-87BC-AC049166XXXX</RequestId> <!--返回结果数据--> </接口名称+Response> JSON示例 { "RequestId": "4C467B38-3910-447D-87BC-AC049166XXXX", /* 返回结果数据 */ }

保持可爱mmm 2020-03-29 16:11:04 0 浏览量 回答数 0

问题

日志服务具有怎样的成本优势?

轩墨 2019-12-01 21:50:59 1341 浏览量 回答数 0
阿里云大学 云服务器ECS com域名 网站域名whois查询 开发者平台 小程序定制 小程序开发 国内短信套餐包 开发者技术与产品 云数据库 图像识别 开发者问答 阿里云建站 阿里云备案 云市场 万网 阿里云帮助文档 免费套餐 开发者工具 企业信息查询 小程序开发制作 视频内容分析 企业网站制作 视频集锦 代理记账服务 企业建站模板