视觉智能平台安全内容审核的标签怎么转换为中文原因呢?就是图片和视频返回的违规标签怎么展示到前端,不能展示成标签吧。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
在视觉智能平台的内容审核中,图片和视频返回的违规标签可以通过以下方式转换为中文原因并展示到前端,以确保用户能够直观理解审核结果。
根据知识库中的风险标签释义表,每个标签值(label
)都有对应的中文含义。例如: - pornographic_adultContent
:疑似含有成人色情内容。 - sexual_suggestiveContent
:疑似低俗或性暗示内容。 - contraband_gamble
:含有疑似赌博等内容。 - object_rmb
:画面疑似包含人民币、硬币。
这些标签值可以直接通过映射表转换为中文描述,便于前端展示。
除了标签值外,系统还会返回一个置信分(confidence
),范围为0~100分,分数越高表示置信度越高。可以在前端展示时结合置信分提供更详细的说明,例如: - 高置信度(如confidence > 80
):明确提示“高度疑似违规”。 - 中置信度(如60 <= confidence <= 80
):提示“可能存在违规”。 - 低置信度(如confidence < 60
):提示“需进一步确认”。
示例展示: - 标签:pornographic_adultContent
,置信分:95 → 前端展示:“高度疑似含有成人色情内容”。 - 标签:sexual_suggestiveContent
,置信分:70 → 前端展示:“可能存在低俗或性暗示内容”。
如果检测结果命中了自定义图库,标签值会以原风险标签值_lib
的形式返回。例如: - violent_explosion_lib
:表示该图片与自定义图库中的图片相似度较高,且疑似包含暴力爆炸内容。
对于这种情况,可以在前端展示时增加额外说明,例如: - “该图片与您配置的自定义图库中的图片高度相似,疑似包含暴力爆炸内容。”
同一张图片或视频可能同时命中多个标签。在这种情况下,可以将所有命中的标签及其对应的中文含义逐一列出,并按置信分从高到低排序。例如: - 标签1:pornographic_adultContent
,置信分:95 → “高度疑似含有成人色情内容”。 - 标签2:sexual_suggestiveContent
,置信分:85 → “高度疑似低俗或性暗示内容”。
前端可以采用列表或卡片形式展示这些信息,方便用户快速了解所有违规点。
为了提升用户体验,建议在前端展示时遵循以下原则: - 简洁明了:直接展示中文原因,避免使用技术术语。 - 分级提示:根据置信分提供不同级别的提示(如“高度疑似”、“可能存在”等)。 - 详细信息可展开:对于复杂的多标签情况,可以默认展示主要违规原因,其他原因可通过点击“查看更多”展开。
示例前端展示:
审核结果:
1. 高度疑似含有成人色情内容(置信分:95)
2. 可能存在低俗或性暗示内容(置信分:85)
为了实现上述功能,后端需要完成以下工作: - 维护标签映射表:将所有标签值与其对应的中文含义存储在数据库或配置文件中,便于动态查询。 - 处理多标签逻辑:对返回的多个标签进行排序和去重,确保前端展示的信息清晰有序。 - 支持自定义图库标识:识别并处理以_lib
结尾的标签值,提供额外的说明。
Label
字段为准,不要依赖Description
字段进行结果处置。通过以上方法,您可以将图片和视频的违规标签转换为易于理解的中文原因,并在前端以用户友好的方式展示。