nsfw( Not Suitable for Work)直接翻译就是 工作的时候不适合看,真文雅
nsfw效果,注意底部的分数
大体流程,输入图片/视频,输出0-1之间的数字,一般情况下,Scores < 0.2 认为是非常安全的,Scores > 0.8 就非常可能是xx图片
roop开源项目里采用的是 0.85
opennsfw2 和 opennsfw 相比,就是模型用了TensorFlow
参考
GitHub - yahoo/open_nsfw: Not Suitable for Work (NSFW) classification using deep neural network Caffe models.
GitHub - bhky/opennsfw2: Keras Core implementation of the Yahoo Open-NSFW model