nsfwjs鉴黄识别最小化案例

 

3个月前,也就是2月份左右吧,Github上出现一个开源项目:

Infinite Red, Inc.工作室宣布开源旗下基于tensorflow的tfjs的鉴黄小工具

据说是从15000张图片中 进行机器学习而来的比较聪明的工具,值得一用
NSFW JS 全称为:NotSafe/SuitableForWork

给 NSFW JS 一张图片元素或画布,然后简单地调用 classify,可能会得到如下 5 个分类结果。

绘画(Drawing)——无害的艺术,或艺术绘画;

变态(Hentai)——色情艺术,不适合大多数工作环境;

中立(Neutral)——一般,无害的内容;

色情(Porn)——不雅的内容和行为,通常涉及生殖器;

性感(Sexy)——不合时宜的挑衅内容。

 





    
    
    
    Document
    
    

    
    

    
    






    

Thumb preview...

 

转载于:https://www.cnblogs.com/kunyashaw/p/10896355.html

你可能感兴趣的:(人工智能)