视觉智能平台安全内容审核的标签怎么转换为中文原因呢?

视觉智能平台安全内容审核的标签怎么转换为中文原因呢?就是图片和视频返回的违规标签怎么展示到前端,不能展示成标签吧。

展开
收起
嘟嘟嘟嘟嘟嘟 2023-09-20 08:09:13 89 分享 版权
阿里云 AI 助理回答

在视觉智能平台的内容审核中,图片和视频返回的违规标签可以通过以下方式转换为中文原因并展示到前端,以确保用户能够直观理解审核结果。


1. 标签与中文含义的映射

根据知识库中的风险标签释义表,每个标签值(label)都有对应的中文含义。例如: - pornographic_adultContent:疑似含有成人色情内容。 - sexual_suggestiveContent:疑似低俗或性暗示内容。 - contraband_gamble:含有疑似赌博等内容。 - object_rmb:画面疑似包含人民币、硬币。

这些标签值可以直接通过映射表转换为中文描述,便于前端展示。


2. 置信分的辅助说明

除了标签值外,系统还会返回一个置信分(confidence),范围为0~100分,分数越高表示置信度越高。可以在前端展示时结合置信分提供更详细的说明,例如: - 高置信度(如confidence > 80):明确提示“高度疑似违规”。 - 中置信度(如60 <= confidence <= 80):提示“可能存在违规”。 - 低置信度(如confidence < 60):提示“需进一步确认”。

示例展示: - 标签:pornographic_adultContent,置信分:95 → 前端展示:“高度疑似含有成人色情内容”。 - 标签:sexual_suggestiveContent,置信分:70 → 前端展示:“可能存在低俗或性暗示内容”。


3. 自定义图库的特殊处理

如果检测结果命中了自定义图库,标签值会以原风险标签值_lib的形式返回。例如: - violent_explosion_lib:表示该图片与自定义图库中的图片相似度较高,且疑似包含暴力爆炸内容。

对于这种情况,可以在前端展示时增加额外说明,例如: - “该图片与您配置的自定义图库中的图片高度相似,疑似包含暴力爆炸内容。”


4. 多标签的综合展示

同一张图片或视频可能同时命中多个标签。在这种情况下,可以将所有命中的标签及其对应的中文含义逐一列出,并按置信分从高到低排序。例如: - 标签1:pornographic_adultContent,置信分:95 → “高度疑似含有成人色情内容”。 - 标签2:sexual_suggestiveContent,置信分:85 → “高度疑似低俗或性暗示内容”。

前端可以采用列表或卡片形式展示这些信息,方便用户快速了解所有违规点。


5. 前端展示建议

为了提升用户体验,建议在前端展示时遵循以下原则: - 简洁明了:直接展示中文原因,避免使用技术术语。 - 分级提示:根据置信分提供不同级别的提示(如“高度疑似”、“可能存在”等)。 - 详细信息可展开:对于复杂的多标签情况,可以默认展示主要违规原因,其他原因可通过点击“查看更多”展开。

示例前端展示:

审核结果:
1. 高度疑似含有成人色情内容(置信分:95)
2. 可能存在低俗或性暗示内容(置信分:85)

6. 后端支持

为了实现上述功能,后端需要完成以下工作: - 维护标签映射表:将所有标签值与其对应的中文含义存储在数据库或配置文件中,便于动态查询。 - 处理多标签逻辑:对返回的多个标签进行排序和去重,确保前端展示的信息清晰有序。 - 支持自定义图库标识:识别并处理以_lib结尾的标签值,提供额外的说明。


7. 重要提醒

  • 数据存储:建议将系统返回的风险标签和置信分存储一定周期,以便后续内容治理时参考。
  • 标签更新:由于标签释义可能会调整,实际处理时应以Label字段为准,不要依赖Description字段进行结果处置。

通过以上方法,您可以将图片和视频的违规标签转换为易于理解的中文原因,并在前端以用户友好的方式展示。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

为开发者提供高易用、普惠的视觉API服务,帮助企业快速建立视觉智能技术应用能力的综合性视觉AI能力平台。适用于数字营销、互联网娱乐、安防、手机应用、泛金融身份认证等行业。

热门讨论

热门文章

还有其他疑问?
咨询AI助理