react native 集成人脸识别 --android

简介: 最近的项目中要做身份认证,其中就包括人脸识别,用的第三方sdk是同盾的,这个是企业谈好的,咱们也只能去按照文档,一步一步去集成,其实也不难,总结起来就是: 在原生中写个方法给RN调用,这个方法就是跳转官网写好的activity,然后识别成功在回调里,把获取的base64图片发消息给RN,RN这边通过监听获得,原生发来的消息。

最近的项目中要做身份认证,其中就包括人脸识别,用的第三方sdk是同盾的,这个是企业谈好的,咱们也只能去按照文档,一步一步去集成,其实也不难,总结起来就是: 在原生中写个方法给RN调用,这个方法就是跳转官网写好的activity,然后识别成功在回调里,把获取的base64图片发消息给RN,RN这边通过监听获得,原生发来的消息。 emmm ,很简单吧。

看下效果图:


img_201ac69b4aff075c95fcc6e717effe5a.png
初始页面
img_c8181e72c79d861d57ff76c116db8880.png
原谅我的脸比较大,相框都放不下

img_9cc56d0bbaab452850953b2a329aab08.png
检测成功的activity

总体分两部分:
第一部分 :sdk的集成
第二部分:Android 和RN 的交互

第一部分:
在工程中导入libs
把demo中的libs文件拷贝到工程APP 目录下
切换到 project可查看到 libs目录,
然后配置libs 生成so文件:


img_ab6ba1d0023264baa9289b867fdfad6d.png
这个是如何把libs生成jniLibs
sourceSets {
        main {
            jniLibs.srcDirs = ['libs']
        }
    }

包导入成功之后
拷贝res文件到 src的main下 这里主要是用人脸识别的图片等资源。
res 目录,覆盖到工程项目的同名目录上,一般情况下这两个目录在 project/app/src/main/
然后新建 第三方页面 把sdk的demo的activity拷贝到工程中。
目录如下:


img_10ecf723dc648eb6c8489c939710e1ef.png
demo中的activity

这里拷贝之后,然后配置 manifests下的 AndroidManifest.xml文件 这里主要是注册 前面的三个activity 还有就是开启 相应的权限


img_fc801673a6fca0d0bf5559abcaec2170.png
注册activity以及加权限
<uses-permission android:name="android.permission.INTERNET" />
<uses-permission android:name="android.permission.SYSTEM_ALERT_WINDOW"/>
<!--同盾添加权限-->
<uses-permission android:name="android.permission.READ_PHONE_STATE"/>
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE"/>
<uses-permission android:name="android.permission.CAMERA"/>
<uses-permission android:name="android.permission.INTERNET"/>
<uses-permission android:name="android.permission.VIBRATE"/>

<uses-feature android:name="android.hardware.camera"/>
<uses-feature android:name="android.hardware.camera.autofocus"/>
<!--开始检测页面-->
<activity android:name="com.tongduntest.cn.tongdun.android.liveness.SampleStartActivity"  />
<!--检测页面-->
<activity android:name="com.tongduntest.cn.tongdun.android.liveness.LivenessDetectActivity"  />
<!--检测结果页面-->
<activity android:name="com.tongduntest.cn.tongdun.android.liveness.SampleResultActivity"  />

这里要注意的是 :注册activity的时候 一定要写在 application 里
然后更改 proguard 混淆

   -dontwarn com.oliveapp.** 
  -keepattributes InnerClasses 
  -keep class **.R$* {*;} 

到这里 sdk算是集成了,然后我们开始写 android 和RN的交互

第二部分:Android 和RN 的交互

新建一个文件夹 这个文件夹 和MainApplication同级目录,然后名字任意取,记得包名要和名字一致。


img_000d7b0ac87e5ae3d0c12e3e0b9583db.png
image.png

module代码:

package com.tongduntest.tongdun;

/**
 * Created by Sean on 2017/3/29.
 */

import android.app.Activity;
import android.content.Context;
import android.content.Intent;
import android.net.Uri;
import android.os.Build;
import android.provider.Settings;

import com.facebook.react.bridge.ActivityEventListener;
import com.facebook.react.bridge.ReactApplicationContext;
import com.facebook.react.bridge.ReactContextBaseJavaModule;
import com.facebook.react.bridge.ReactMethod;
import com.oliveapp.face.livenessdetectorsdk.livenessdetector.datatype.LivenessDetectionFrames;
import com.tongduntest.MainActivity;

import com.tongduntest.cn.tongdun.android.liveness.LivenessDetectActivity;
import com.tongduntest.cn.tongdun.android.liveness.SampleResultActivity;
import com.tongduntest.cn.tongdun.android.liveness.view_controller.LivenessDetectionMainActivity;

import android.content.Intent;
import android.support.v7.app.AppCompatActivity;
import android.widget.Toast;
import android.os.Handler;
import android.os.Bundle;


import com.oliveapp.face.livenessdetectorsdk.livenessdetector.datatype.LivenessDetectionFrames;
import com.tongduntest.cn.tongdun.android.liveness.view_controller.LivenessDetectionMainActivity;




public class TongdunModule extends ReactContextBaseJavaModule {

    public TongdunModule(ReactApplicationContext reactContext) {
        super(reactContext);
    }
     ReactContextBaseJavaModule getCurrentActivity ;

    @Override
    public String getName() {
        return "tongdun";   //暴露给RN 的模块调用
    }

    @ReactMethod
    public  void startTongdun(){  //跳转人脸识别activity
//这里 我们跳转activity的时候 要这样写   注意路径不要错
        Activity currentActivity = getCurrentActivity();
        Intent intent = new Intent(currentActivity, com.tongduntest.cn.tongdun.android.liveness.SampleStartActivity.class);
        currentActivity.startActivity(intent);

    }









}

ReactPackage代码:

package com.tongduntest.tongdun;

/**
 * Created by Sean on 2017/3/29.
 */

import com.facebook.react.ReactPackage;
import com.facebook.react.bridge.JavaScriptModule;
import com.facebook.react.bridge.NativeModule;
import com.facebook.react.bridge.ReactApplicationContext;
import com.facebook.react.uimanager.ViewManager;
import com.tongduntest.tongdun.TongdunModule;

import java.util.ArrayList;
import java.util.Collections;
import java.util.List;

public class TongdunReactPackage implements ReactPackage {

    public List<Class<? extends JavaScriptModule>> createJSModules() {
        return Collections.emptyList();
    }

    @Override
    public List<ViewManager> createViewManagers(ReactApplicationContext reactContext) {
        return Collections.emptyList();
    }

    @Override
    public List<NativeModule> createNativeModules(
            ReactApplicationContext reactContext) {
        List<NativeModule> modules = new ArrayList<>();

        modules.add(new TongdunModule(reactContext));

        return modules;
    }
}

到这里之后 然后就是到 MainApplication中实例化一下。(记得导包)


img_46e404a69fb6b0685ca607f2c8a62768.png
image.png

然后测试了下 RN 这边已经能够打开 人脸识别:不过进入的时候会出现闪退,这时候要改下 build.gradle文件

dependencies {
    compile fileTree(dir: "libs", include: ["*.jar"])
    testCompile 'junit:junit:4.12'
    compile "com.android.support:appcompat-v7:23.0.1"
    compile "com.facebook.react:react-native:+"  // From node_modules
}

buildTypes {
    release {
        minifyEnabled false   //minifyEnabled主要用来控制是否运行混淆的。
        proguardFiles getDefaultProguardFile("proguard-android.txt"), "proguard-rules.pro"
    }
}

更改过之后 重新rebuild 跑起来了
最后就是 写成功后的回调 把 抓取到的图片给 RN ,告诉RN 成功或失败了
在回调方法里写:
新建一个交互类:

/**
 * @param reactContext
 * @param eventName    事件名
 * @param params       传惨
 */
public void senMsgToRN(ReactContext reactContext, String eventName, @Nullable WritableMap params) {
    reactContext
            .getJSModule(DeviceEventManagerModule.RCTDeviceEventEmitter.class)
            .emit(eventName, params);

}

然后发消息给RN

//发消息给RN 成功
//定义上下文对象
MainApplication mainApplication = (MainApplication)getApplication();
ReactContext reactContext = mainApplication.mReactNativeHost.getReactInstanceManager().getCurrentReactContext();

WritableMap writableMap = new WritableNativeMap();
  writableMap.putString("key", "success");
writableMap.putString("base64Data", base64Data);
  senMsgToRN(reactContext, "EventName", writableMap);


注意: 如果这个 mReactNativeHost 方法报红的话 把 MainApplication中的这个私有的方法改成public

img_802c16ea46d4700fc2c478091713244d.png
image.png

很简单吧,到这里
Android 端集成 给RN发消息也写好了,接下来就是js这边的监听,

 componentWillMount() {
    Platform.OS === "android" ?
      DeviceEventEmitter.addListener('EventName', function (msg) {
        console.log("androidmsg:" + JSON.stringify(msg));

      })
      : null
  }

调用原生模块

 render() {
    return (
      <View style={styles.container}>
        <TouchableOpacity onPress={() => {
          NativeModules.tongdun.startTongdun()

        }}>
          <Text style={styles.welcome}>
            go  to tongdun
        </Text>
        </TouchableOpacity>
        <Text style={styles.instructions}>
          To get started, edit index.android.js
        </Text>
        <Text style={styles.instructions}>
          Double tap R on your keyboard to reload,{'\n'}
          Shake or press menu button for dev menu
        </Text>
      </View>
    );
  }

控制台打印如下:


img_3fac94e346d4ccd7818ac5d6c41555dd.png
image.png

img_2d5216c3af7e2cf0ea0d5ecbc6566ade.png
image.png

这样获得base64图片字符串后 接下来的事情就交给RN 进行https post请求 进行人像对比了。
最后成功之后不要忘记销毁activity 方法: finish() 关闭当前页面。

ios集成请参考react native 集成人脸识别 --ios

目录
相关文章
|
2月前
|
Java Android开发 C++
Android Studio JNI 使用模板:c/cpp源文件的集成编译,快速上手
本文提供了一个Android Studio中JNI使用的模板,包括创建C/C++源文件、编辑CMakeLists.txt、编写JNI接口代码、配置build.gradle以及编译生成.so库的详细步骤,以帮助开发者快速上手Android平台的JNI开发和编译过程。
91 1
|
21天前
|
前端开发 JavaScript 开发者
Express.js与前端框架的集成:React、Vue和Angular的示例与技巧
本文介绍了如何将简洁灵活的Node.js后端框架Express.js与三大流行前端框架——React、Vue及Angular进行集成,以提升开发效率与代码可维护性。文中提供了详细的示例代码和实用技巧,展示了如何利用Express.js处理路由和静态文件服务,同时在React、Vue和Angular中构建用户界面,帮助开发者快速掌握前后端分离的开发方法,实现高效、灵活的Web应用构建。
36 3
|
1月前
|
图形学 iOS开发 Android开发
从Unity开发到移动平台制胜攻略:全面解析iOS与Android应用发布流程,助你轻松掌握跨平台发布技巧,打造爆款手游不是梦——性能优化、广告集成与内购设置全包含
【8月更文挑战第31天】本书详细介绍了如何在Unity中设置项目以适应移动设备,涵盖性能优化、集成广告及内购功能等关键步骤。通过具体示例和代码片段,指导读者完成iOS和Android应用的打包与发布,确保应用顺利上线并获得成功。无论是性能调整还是平台特定的操作,本书均提供了全面的解决方案。
109 0
|
2月前
|
开发者 算法 虚拟化
惊爆!Uno Platform 调试与性能分析终极攻略,从工具运用到代码优化,带你攻克开发难题成就完美应用
【8月更文挑战第31天】在 Uno Platform 中,调试可通过 Visual Studio 设置断点和逐步执行代码实现,同时浏览器开发者工具有助于 Web 版本调试。性能分析则利用 Visual Studio 的性能分析器检查 CPU 和内存使用情况,还可通过记录时间戳进行简单分析。优化性能涉及代码逻辑优化、资源管理和用户界面简化,综合利用平台提供的工具和技术,确保应用高效稳定运行。
39 0
|
2月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
全面解析TensorFlow Lite:从模型转换到Android应用集成,教你如何在移动设备上轻松部署轻量级机器学习模型,实现高效本地推理
【8月更文挑战第31天】本文通过技术综述介绍了如何使用TensorFlow Lite将机器学习模型部署至移动设备。从创建、训练模型开始,详细演示了模型向TensorFlow Lite格式的转换过程,并指导如何在Android应用中集成该模型以实现预测功能,突显了TensorFlow Lite在资源受限环境中的优势及灵活性。
65 0
|
3月前
|
前端开发 JavaScript Android开发
React Native跨平台开发实战
【7月更文挑战第21天】React Native为跨平台移动应用开发提供了一种高效且强大的解决方案。通过本文的学习,你应该能够掌握React Native的基本概念和实战步骤,并开始在你的项目中使用React Native进行开发。随着你对React Native的深入理解,你将能够利用其强大的功能来构建更加复杂和高效的移动应用。
|
4月前
|
JavaScript 前端开发 Android开发
kotlin安卓在Jetpack Compose 框架下使用webview , 网页中的JavaScript代码如何与native交互
在Jetpack Compose中使用Kotlin创建Webview组件,设置JavaScript交互:`@Composable`函数`ComposableWebView`加载网页并启用JavaScript。通过`addJavascriptInterface`添加`WebAppInterface`类,允许JavaScript调用Android方法如播放音频。当页面加载完成时,执行`onWebViewReady`回调。
|
4月前
|
前端开发 自动驾驶 程序员
鸿蒙? 车载?Flutter? React Native? 为什么我劝你三思,说点不一样的
本文探讨了在信息技术快速发展的背景下,开发者如何选择学习路径。作者提倡使用终局思维来规划职业发展,考虑技术的长远影响。终局思维注重长远目标、系统分析、反向规划和动态调整。以车载开发为例,预测未来智能汽车可能由语音助手主导,而非依赖平板界面。此外,作者建议不要过分投入打工状态,应思考创建自己的产品,如App,以实现技能补充和额外收入。选择对未来发展和自主性有益的技术,如Kotlin,比盲目追求热点更为重要。做减法和有标准的选择,能帮助减轻焦虑,实现更高效的成长。关注公众号“AntDream”获取更多相关内容。
105 1
|
4月前
|
开发框架 前端开发 JavaScript
移动应用开发中的跨平台策略:Flutter与React Native的比较
在移动应用领域,跨平台解决方案已成为开发者追求高效、成本效益和广泛覆盖的关键。本文深入探讨了两种领先的跨平台框架——Flutter和React Native,从技术架构、性能、社区生态及实际应用案例四个维度进行全面对比分析。通过这一比较,旨在为移动应用开发者提供选择合适框架的参考依据,帮助他们根据项目需求做出明智的决策。
|
3月前
|
Dart Android开发 Windows
Flutter和Native 通信 android端
Flutter和Native 通信 android端
下一篇
无影云桌面