好好学习,天天向上
<p align="left" style="padding-bottom:0px; margin-top:0px; margin-bottom:10px; padding-top:0px"> 目前在做Hi3515平台监控项目,前期开发一直使用SDK里推荐的mount nfs方式来调试代码,虽然也算方便,但是我一直觉得用法NFS-ROOT才是最省事的方法,而且最接近最终用户使用环境,因为
<p>dpkg是一个Debian的一个命令行工具,它可以用来安装、删除、构建和管理Debian的软件包。<br> 下面是它的一些命令解释:<br> 1)安装软件<br> 命令行:dpkg -i <.deb file name><br> 示例:dpkg -i avg71flm_r28-1_i386.deb<br> 2)安装一个目录下面所有的软件包<br> 命令行:dp
<p style="line-height:26px; background-color:#ffffff; font-family:Arial"><span style="color:#ff0000">RealView Development Suite 3.1</span> RVDS 3.1下载地址:<span style="color:#ff0000">https://silver.
<p>02实际是在01的基础上添加了 SDL显示yuv部分,这部分相对独立。</p> <p> if(SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) <br> {<br> fprintf(stderr, "Could not initialize SDL - %s\n", SDL_GetError()
<img alt="如下图" src="http://img.blog.csdn.net/20130823145050406?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbWFvMDUxNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast"
<p>tools/options/directories/include files 添加ffmpeg头文件所在路径</p> <p>tools/options/directories/library files 添加ffmpeg库路径</p> <p>project/settings/link/object/library modules 添加所用的ffmpeg库 </p> <p>
<div><span style="font-size:18px"><strong>1 AVPacket</strong></span></div> <div> <p align="left"><span style="color:blue">typedef</span> <span style="color:blue"> struct</span> AVPacket {</p>
<div><span style="font-size:18px"><strong>1 avcodec_find_decoder()</strong></span></div> <div> <p align="left"><span style="color:green">/**</span></p> <p align="left"><span style="color:green"
<span style="font-size:18px">本文对在使用ffmpeg进行音视频编解码时使用到的一些函数做一个简单介绍,我当前使用的ffmpeg版本为:0.8.5,因为本人发现在不同的版本中,有些函数名称会有点小改动,所以在此有必要说明下ffmpeg的版本号。</span> <div><span style="font-size:18px"> ffmpeg本人也是刚接触
<p><br>#include <libavcodec/avcodec.h><br>#include <libavformat/avformat.h><br>#include <libswscale/swscale.h><br>#include <stdio.h></p> <p>void SaveFrame(AVFrame *pFrame, in
<div> <span>uClibc和Glibc并不相同,两者有许多不同之处,而且以下不同有可能给你带来一些问题。<br><br> 1. uClibc比Glibc小,虽然uClibc和Glibc在已有的接口上是兼容的,而且采用uClibc编译应用程序比采用Glibc编译应用程序要更方便,但是uClibc并没有包括Glibc中的所有接口实现,因此有些应用可能在uClibc中不能编译。<br
<p style="padding-bottom:0px; line-height:21px; margin-top:0px; font-family:tahoma,helvetica,arial; margin-bottom:0px; color:rgb(69,69,69); font-size:14px; padding-top:0px"> 1、Hi3531 SDK包位置</p>
<p><span style="font-size:14px"><span style="color:#ff0000"><strong>问题:</strong></span></span></p> <p></p> <div class="dp-highlighter bg_c-sharp"> <div class="bar"> <div class="tools"> <strong
<p>Hi3531 SDK 安装以及升级使用说明</p> <p>第一章 Hi3531_SDK_Vx.x.x.x版本升级操作说明<br> 如果您是首次安装本SDK,请直接参看第2章。<br> <br> 第二章 首次安装SDK<br> 1、Hi3531 SDK包位置<br> 在"Hi3531_V100R001***/01.software/board"目录下,
Ubuntu的 shell 默认安装的是 dash,而不是 bash。<br> 运行以下命令查看 sh 的详细信息,确认 shell 对应的程序是哪个:<br> $ls -al /bin/sh<br><br> dash 比 bash 更轻,更快。但 bash 却更常用。<br> 如果一些命令、脚本等总不能正常执行,有可能是 dash 的原因。<br> 比如编译 Android 源
<p>/dev/mem: 物理内存的全镜像。可以用来访问物理内存。 </p> <p>/dev/kmem: kernel看到的虚拟内存的全镜像。可以用来访问kernel的内容。 </p> <p>/dev/mem 用来访问物理IO设备比如X用来访问显卡的物理内存或嵌入式中访问GPIO。用</p> <p>法一般就是open然后mmap接着可以使用map之后的地址来访问物理内存。这其
<p><img src="http://img.blog.csdn.net/20141127084518778?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbWFvMDUxNA==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" alt=""></p>
<p>实时传送协议(Real-time Transport Protocol或简写RTP,也可以写成RTTP)是一个网络传输协议,它是由<a target="_blank" href="http://baike.baidu.com/view/155093.htm">IETF</a>的多媒体传输工作小组1996年在RFC 1889中公布的。</p> <p>RTP协议详细说明了在互联网上传递
三、V4L2的demo<br><p style="text-indent:2em">capture.c是官方示例程序。</p> <p style="text-indent:2em">capture.c 程序中的 process_image 函数:</p> <p style="text-indent:2em"> capture.c 程序主要是用来演示怎样使用 v4l2 接口,
二、V4L2的应用<br><p style="text-indent:2em"> 下面简单介绍一下V4L2驱动的应用流程。</p> <p style="text-indent:2em">1、 视频采集的基本流程</p> <p style="text-indent:2em">一般的,视频采集都有如下流程:</p> <p style="text-indent:2em"> </p>
<p style="text-indent:2em">V4L2(video for linux) 可以支持多种设备,它可以有以下5种接口:</p> <p style="text-indent:2em">1、视频采集接口(video capture interface):这种应用的设备可以是高频头或者摄像头.V4L2的最初设计就是应用于这种功能的.下面也是着重讲解这种应用;</p> <p
这几天在实验室捣鼓着用ffmpeg做视频解码,终于把数据解出来了,虽然还没有做显示部分,不知道解码解得对不对,但料想是不会有什么问题了.回头看看这几天的工作,其间也遇到了不少问题,主要还是对ffmpeg解码过程不熟悉,现总结了ffmpeg解码的顺序大致如下: <br> 1.初始化解码器:avcodec_init();<br> 2.注册所有格式和解码器:av_register();<b
<p><strong>最近在编写一个进行视频播放的ActiveX控件,工作已经接近尾声,现将其中显示YUV数据的使用DirectDraw的一些经验总结如下:(解码部分不是我编写的,我负责从网络接收数据,将数据传给解码器,并将解码得到的YUV数据进行显示,最初在显示部分我是先将YUV数据转换为RGB数据,再以位图的形式显示到屏幕上,但发现CPU占用率比较高,后来改用DirectDraw直接显
<p>/* 本程序符合GPL条约<br> * Beneboy 2003-5-16<br> */<br> #include <stdio.h> // printf<br> #include <fcntl.h> // open<br> #include <string.h>
<p>10.04<br> 先将 ubuntu server 的 iso 放到优盘上,然后在提示无法找到光驱时,按 alt+f2 打开一个新的 console 窗口,将 iso mount 上,具体操作如下:<br> ls /dev/sd*</p> <p>mkdir /mnt/usb /mnt/iso<br> mount -t vfat /dev/sdc1 /mnt/usb<br>
<p>void showbmp2()<br> {<br> int x,y;<br> unsigned char *p;<br> int index=0; <br> struct fb_var_screeninfo vinfo; <br> struct fb_fix_screeninfo finfo; </p> <p>
<p>/*ex2serv.c*/<br> #include <time.h><br> #include<stddef.h><br> #include <stdio.h><br> #include <stdlib.h><br> #include <sys/socket.h><br> #include <netine
linux下安装ffmpeg <div> </div> <div>1、<a target="_blank" class="keylink" href="http://www.2cto.com/soft">下载</a>ffmpeg。 </div> <div> </div> <div>2、解压 </div> <div> tar xvfj ffmpeg-0.11.1.tar.bz2
最近在做流媒体开发这一块,在服务器端,所用的live555不支持mp4,avi等视频容器格式,所以打算运用ffmpeg来进行扩展。将MP4文件先运用ffmpeg进行解析,解析成live555所支持的基本视频流格式(如H.264等)和音频流格式,再运用live555中对基本音视频流的处理方式处理后,发送到客户端进行解码播放,这其中运用到了ffmpeg库,为了便于调试,开发环境初步选择了在wi
在工业生产控制系统中,有许多需要定时完成的操作,如定时显示当前时间,定时刷新屏幕上的进度条,上位<wbr> 机定时向下位机发送命令和传送数据等。特别是在对控制性能要求较高的实时控制系统和数据采集系统中,就更需要精确定时操作。<br> 众所周知,Windows 是基于消息机制的系统,任何事件的执行都是通过发送和接收消息来完成的。<wbr> 这样就带来了一些问题,如一旦计算机的CPU被某
ioremap <div> void * ioremap (unsigned long offset, unsigned long size)</div> <div> ioremap是一种更直接的内存“分配”方式,使用时直接指定物理起始地址和需要分配内存的大小,然后将该段 物理地址映射到内核地址空间。ioremap用到的物理地址空间都是事先确定的,和上面的几种内存 分配方式并不太一
<div>常用内存分配函数</div> <div> __get_free_pages</div> <div> unsigned long __get_free_pages(gfp_t gfp_mask, unsigned int order)</div> <div> __get_free_pages函数是最原始的内存分配方式,直接从伙伴系统中获取原始页框,返</div> <d
<div> <a target="_blank" href="http://www.easthome.com/public/zt/zt_test.aspx?thematicid=15">linux</a>内核中采 用了一种同时适用于32位和64位系统的内存分页模型,对于32位系统来说,两级页表足够用了,而在x86_64系 统中,用到了四级页表。</div> <div> * 页全局目录(
<p>从PCI上读取数据 线程和定时器效率</p> <p>线程:</p> <p> mythread=AfxBeginThread(StartContinuous,(LPVOID)1,THREAD_PRIORITY_NORMAL,0,CREATE_SUSPENDED);<br> mythread->ResumeThread();</p> <p>UINT StartContin
<p>前期搞的cpci视频采集卡已经完成,不过对于h264压缩部分没有理解,用的代码都是在评估板上抄的,下面要深入研究一下了。</p> <p>有兴趣的我们一起研究吧。</p> <p> </p> <p>下面是linux下的一段代码,慢慢开始调试了。。。。</p> <p><br> int tw2835_encoder_hd1(unsigned char *ptr, struct ct
<div> <p><span style="color:windowtext"><span style="font-family:Arial">PCI</span></span><span style="color:windowtext">、</span><span style="color:windowtext"><span style="font-family:Arial">CPCI
下面开始:<br> 由于FFMpeg是基于Linux开发的开源项目,源代码和Windows下最常见的Visual Studio提供的C/C++编译器不兼容,因此它不能使用MSVC++编译。要想使用FFMpeg,最先要解决的问题就是在Windows下配置一个类似Linux的编译环境,将FFMpeg编译为二进制库以后,再利用其进行进一步开发。<br> MSVC++并不严格的遵循C标
<p>关于DVI视频输出口,微软搞了个SDVO用来保护:</p> <p>#define SDVO_OUTPUT_FIRST (0)<br> #define SDVO_OUTPUT_TMDS0 (1 << 0)<br> #define SDVO_OUTPUT_RGB0 (1 << 1)<br> #define SDVO_OUTPUT_CVBS0
<div>目标:能够把电脑当作一个集成有高性能处理器的开发板用起来,当然,还自带了一个高级的操作系统Windows(必须的)。总之,就是在一个带了操作系统的高性能开发板上的驱动程序开发。</div> <div>性质:纯属业余爱好</div> <div></div> <div>1、昨天下载了WDK 7.1.0 Free版(From MS的正版,需要注册一个Windows Live ID
<p><span style="font-family:courier new,courier"><span>描述 </span></span></p> <p><span style="font-family:courier new,courier"><span><strong>popen()</strong> 函数 用 创建管道 的 方式启动一个 进程, 并调用 shell. 因为 管
<p><span style="font-size:14px">int snprintf(char *restrict buf, size_t n, const char * restrict format, ...);</span></p> <p><span style="font-size:14px">函数说明:最多从源串中拷贝n-1个字符到目标串中,然后再在后面加一个0。所以如果
<span class="headline-content">文件</span> <div class="para">#include <getopt.h></div> <h2 class="headline-1"><span class="headline-content">函数原型</span></h2> <div class="para">int getopt_lo
<p> 最近做了一款pci的视频采集卡(H264压缩),由于数据传输量比较大,所有想采用dma来传输数据,刚开始感觉很简单,后来感觉还是困难重重。</p> <p> </p> <p> DMA 验证监控直接内存访问 (DMA) 的使用。随着 Windows 的开发,DMA 例程已经发生改变,因此许多驱动程序错误地使用了 DMA 调用。而且,一些驱动程序作者尝试完全绕过
<div class="bct fc05 fc11 nbw-blog ztag"> <a target="_blank" rel="nofollow" href="http://wenku.baidu.com/view/c64b8731b90d6c85ec3ac65e.html">pci、pci-x、pcie的区别</a><wbr></wbr> </div>
<div class="bct fc05 fc11 nbw-blog ztag"><cc> <div id="post_content_17404567663">DVD现在已经算是个普及的东西了,一般的碟友对于DVD的各种技术细节也都能说个七七八八,比如视频采用MPEG-2编码啦、最高码率10.08M/s啦、最多容纳8条音轨啦等等。可是往往有些最基本的东西却没多少人能说清楚,就比如说画面分
<div class="bct fc05 fc11 nbw-blog ztag"> <div> <a target="_blank" rel="nofollow" href="http://baike.baidu.com/view/1472.htm">液晶显示器</a>和传统的CRT显示器,<a target="_blank" rel="nofollow" href="http://baike
<p>The <strong>CM_RESOURCE_LIST</strong> structure specifies all of the system hardware resources assigned to a device.</p> <h3>Syntax</h3> <div id="code-snippet-1" class="codeSnippetContainer">
<div class="bct fc05 fc11 nbw-blog ztag">PCI是Peripheral Component Interconnect(外设部件互连标准)的缩写,它是目前个人电脑中使用最为广泛的接口,几乎所有的主板产品上都带有这种插槽。PCI插槽也是主板带有最多数量的插槽类型,在目前流行的台式机主板上,ATX结构的主板一般带有5~6个PCI插槽,而小一点的MATX主板也都
<div class="bct fc05 fc11 nbw-blog ztag"> <p> Ubuntu 安装 Qt 开发环境 简单实现是本文要介绍的内容,内容很短,取其精华,详细介绍Qt 类库的说明,先来看内容。</p> <p> 一、Ubuntu下安装Qt</p> <p> <font color="#ff0000"><strong>$ sudo apt-get
<div class="bct fc05 fc11 nbw-blog ztag"> <div style="line-height:1.7; font-family:arial; color:rgb(0,0,0); font-size:14px"> <div> <h2>Ubuntu Android开发环境搭配</h2> </div> <div> <table width=