第一步:
通过Github查找作者TommyZihao,在其aidlux_tutorial工程下找到“用手机摄像头玩转OpenCV”这个项目,并以压缩包的形式下载下来。
第二步:
从手机端登录Aidlux,根据Cloud_ip,获取IP地址,在电脑端进行输入,远程登录Aidlux桌面。
默认密码:aidlux
第三步:
远程传输代码文件至手机端Aidlux。将第一步中下载的压缩包项目上传至Aidlux的home目录下。
第四步:
在电脑端Aidlux中找到AidCode,输入jupyter notebook --allow-root,获取jupyter的浏览地址。
第五步:
打开jupyter notebook,可以看见上传完毕的文件。并打开和运行相应的.ipynb,检验代码效果和正确性。
第六步:
选择一种算法,本人选择在Aidlux平台调用手机摄像头实现逐帧实时拍摄Canny边缘检测,将该工程打包为canny_webcam.py。同时,为了便捷性,本人通过Aidlux桌面的launch-build添加桌面快捷方式,之后通过点击该快捷方式变可运行canny_webcam.py,实现摄像头实时Canny边缘检测。
其中图标,应用名称,唯一标识,访问路径均可由自己设置,而启动命令的格式需要根据自己算法文件的位置,进行填写。例如:canny_webcam.py在home目录下,则启动命令为:python /home/canny_webcam.py。
此时可以看到我的Aidlux桌面上生成了canny_webcam.py的快捷方式。
canny_webcam.py的源码如下:
```# 导入工具包
import time
import cv2
from cvs import *
初始化摄像头
摄像头ID 0-后置 1-前置
Camera_ID = 0
cap = cvs.VideoCapture(Camera_ID)
Canny 边缘检测 - 写 FPS 数值
def process_frame(img_bgr):
'''输入BGR格式的 numpy array,输出BGR格式的 numpy array'''
# 记录该帧开始处理的时间
start_time = time.time()
# 逐帧处理操作
img_bgr = cv2.Canny(img_bgr, 100, 200)
img_bgr = np.dstack((img_bgr, img_bgr, img_bgr))
# 记录该帧处理完毕的时间
end_time = time.time()
# 计算每秒处理图像帧数FPS
FPS = 1/(end_time - start_time)
# 在画面上写 FPS 数值
end_time = time.time()
FPS = 1/(end_time - start_time) # 计算每秒处理图像帧数FPS
FPS_string = 'FPS {:.2f}'.format(FPS) # 写在画面上的字符串
img_bgr = cv2.putText(img_bgr, FPS_string, (25, 100), cv2.FONT_HERSHEY_SIMPLEX, 1.25, (255, 0, 255), 2) # 在画面上写字:图片,字符串,左上角坐标,字体,字体大小,颜色,字体粗细
return img_bgr
逐帧实时处理手机摄像头拍摄的画面-代码模板
while True:
img_bgr = cap.read()
if img_bgr is None:
continue
img_bgr = process_frame(img_bgr)
cvs.imshow(img_bgr)
```
点击该快捷方式,便可进行cannywebcam.py的运行,效果展示视频如下:
基于Aidlux平台实现手机摄像头实时Canny检测哔哩哔哩_bilibili