达摩院视觉 AI 介绍(二)|学习笔记

简介: 快速学习达摩院视觉 AI 介绍

开发者学堂课程【达摩院视觉 AI 精品课达摩院视觉 AI 介绍笔记与课程紧密联系,让用户快速学习知识。

课程地https://developer.aliyun.com/learning/course/912/detail/14418


达摩院视觉 AI 介绍(二)

三、演示:服务开通、调用

创建成功后显示如下:

点击操作中复制选项

复制信息如下:

用户名称登录 test2020lx2@43671.onaliyun.com

AccessKey ID LTA4G7We7Nir3zzdcp7G5x2

AccessKeySecretfLRIGqe8hKnsE77vleSraMYQdJTC4

创建用户后,给用户设置权限:

点击人员管理,进入用户项,点击添加权限选项

image.png

进入添加权限页面,进行权限管理:

点击确认后

上传图片地址到缺口:

搜索栏搜索 OSS,进入 OSS 控制台,点击 Bucket 列表,进入界面:

image.png

点击创建 Bucket,进入创建页面,输入 Bucket 名称,并选择地域:

将读写权限改为公共课,点击确定:

image.png创建成功后呈如下界面:

image.png

创建文件:

点击文件管理,上传文件,进入上传文件界面,选择一个文件进行上传:

上传成功后,退出界面,点击详情,复制文件URL

使用 IDEA 创建一个新的 maven 项目,添加依赖包:

<dependency>

<groupId>com . aliyun</ groupid>

<artifactId>aliyun-java-sdk-core</artifactId><version>4.5.14</ version>

</ dependency>

<!-- https : / /mvnrepository.com/artifact/com.aliyun/aliyun-java-sdk-facebody -->

<dependency>

<groupid>com.aliyun</ groupId>

<artifactId>aliyun-java-sdk-facebody</ artifactId>

<version>1.2.2</version>

</dependency>

代码:

<?xml version="1,0"encoding="UTF-8"?>

<project xmlns="http://maven.apache. org/PON/4.0.0

xmlns:xsi="http:/ /www . w3.org/2001/XMLSchena-instance"xsi:schemaLocation="http: //maven.apache .ong/PON/4.0.0 http://maven,apache .org/xsd/maven-

-4.0.0.xsd“>

<modelVersion>4.0.0</modelversion>

<groupId>org.example</groupId>

<artifactid>test002</artifactId>

<version>1.0-SNAPSHOT</version>

<dependencies>

<dependency>

<groupId>com.aliyun</groupId>

<artifactId>aliyun-java-sdk-core</artifactId>

<version>4.5.14</version>

</ dependency>

<!--https://mvncenository,com/arntifact/com.aliyun/alivun-java-sdk-facebody -->

<dependency>

<groupId>com.aliyun</groupId>

<artifactId>aliyun-java-sdk-facebody</artifactId>

<version>1.2.2</version>

</dependency>

</dependencies>

</project>

将对应的包下载到本地并添加一个新的java类,输入代码如下:

import com.aliyuncs.DefaultAcsClient;

import com.aliyuncs.IAcSClient;

import com.aliyuncs.exceptions.clientException;

import com.aliyuncs.exceptions.ServerException;

import com.aliyuncs.profile.DefaultProfile;

import com.google.gson.Gson;

import java.util,*;

import com.aliyuncs.facebody.model.v20191230,*;

public class DetectFace {

public static void main(String[] args) {

DefaultProfile profile = DefaultProfile.getProfile( reglonld:“cn-shanghai",accesskeyid:"<accessKeyId> "

IAcsClient client = ne DefaultAcsclient(profile);DetectFaceRequest request = new DetectFaceRequest(O;request.setRegionId( " cn-shanghai");

request.setImageURL ("httos://viapi-test.oss-cn-shanghai.aliyuncs .com/demo-center/facebody/DetectFace.jpg");

try {

DetectFaceResponse response = client.getAcsResponse(request);

System.out.println(new Gson().toJson(response));

}

catch (serverException e){

e.printstackTrace(;

catch (clientException e)i

System.out.println( "ErrCode: " +e.getErrCode());

System.out.println( "ErrHsg;"+e.getErrMsg();

System.out.println( "RequestId: " + e.getRequestId());

}

}

}

相关文章
|
5月前
|
人工智能 编解码 安全
[译][AI OpenAI-doc] 视觉
学习如何使用 GPT-4 来理解图像。具有视觉功能的 GPT-4 Turbo 允许模型接收图像并回答与之相关的问题。了解图像上传、处理、成本计算、模型限制等详细信息。
|
5月前
|
人工智能 Windows
LabVIEW将视觉生成器AI用作OPC服务器
LabVIEW将视觉生成器AI用作OPC服务器
57 2
|
9天前
|
人工智能 自然语言处理 Linux
Llama 3.2:开源可定制视觉模型,引领边缘AI革命
Llama 3.2 系列 11B 和 90B 视觉LLM,支持图像理解,例如文档级理解(包括图表和图形)、图像字幕以及视觉基础任务(例如基于自然语言描述在图像中精确定位对象)。
|
2月前
|
机器学习/深度学习 人工智能 监控
探索视觉AI:超越计算机视觉的边界
【8月更文挑战第20天】
47 2
|
2月前
|
机器学习/深度学习 人工智能 PyTorch
"揭秘AI绘画魔法:一键生成梦幻图像,稳定扩散模型带你开启视觉奇迹之旅!"
【8月更文挑战第21天】稳定扩散(Stable Diffusion)是基于深度学习的模型,能根据文本生成高质量图像,在AI领域备受瞩目,革新了创意产业。本文介绍稳定扩散模型原理及使用步骤:环境搭建需Python与PyTorch;获取并加载预训练模型;定义文本描述后编码成向量输入模型生成图像。此外,还可调整参数定制图像风格,或使用特定数据集进行微调。掌握这项技术将极大提升创意表现力。
34 0
|
2月前
|
机器学习/深度学习 人工智能 算法
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
【机器学习】基于YOLOv10实现你的第一个视觉AI大模型
96 0
|
5月前
|
人工智能 编解码 安全
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
【4月更文挑战第14天】清华大学与新加坡国立大学团队针对大型多模态模型(LMMs)在处理高分辨率图像时的局限,提出新模型LLaVA-UHD。该模型通过图像模块化、压缩和空间模式组织策略,有效提升了处理任意比例和高分辨率图像的能力。实验显示,LLaVA-UHD在9个基准测试中超越现有模型,且在TextVQA任务上准确率提升6.4%,同时训练时间更短。然而,模型训练成本高、泛化能力待优化是未来需解决的问题。
75 8
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
OpenAI 推出 GPT-4o,免费向所有人提供GPT-4级别的AI ,可以实时对音频、视觉和文本进行推理,附使用详细指南
GPT-4o不仅提供与GPT-4同等程度的模型能力,推理速度还更快,还能提供同时理解文本、图像、音频等内容的多模态能力,无论你是付费用户,还是免费用户,都能通过它体验GPT-4了
187 1
|
5月前
|
人工智能 UED
“视觉AI任意门”AnyDoor,只需点两下鼠标就可以实现任意场景物体交换
【2月更文挑战第17天】“视觉AI任意门”AnyDoor,只需点两下鼠标就可以实现任意场景物体交换
315 1
“视觉AI任意门”AnyDoor,只需点两下鼠标就可以实现任意场景物体交换
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
探索无限:Sora与AI视频模型的技术革命 - 开创未来视觉艺术的新篇章
探索无限:Sora与AI视频模型的技术革命 - 开创未来视觉艺术的新篇章
92 1

热门文章

最新文章

下一篇
无影云桌面