AI鉴渣女,别用技术施行隐私侵害
AI鉴渣女,别用技术施行隐私侵害
■ 来论
AI鉴渣女是对某个群体简单粗暴的污名化。
最近,程序员@将记忆深埋在微博上宣布其完成了一个项目:将色情网站上的公开视频和图片打标签后做匹配,以实现所谓“以图搜片”。查询者可通过上传女性照片、视频和数据库做匹配,判断该女性是否疑似从事过色情行业。
据称,该程序借助100多TB的数据,已“在全球范围内成功识别了10多万名疑似从事色情行业的女性”。开发者@将记忆深埋称此是为了鉴别“渣女”,避免老实又多金的程序员群体成为“接盘侠”。有“热心网友”甚至给这款产品起名为“原谅宝”。
不过,迫于舆论压力,开发者已删除了整个项目和数据库,并因言论不当向公众道歉。但其引致的争论却没有结束。
人人皆有窥私心理,尤其涉及两性关系,那些耳鬓厮磨的情话,都是最为私密的部分。这位程序员却将此作为公开数据进行渣女分析与鉴定,还想公之于众,这到底和女性是有什么仇怨,难道正如其网名所言,有多少记忆想深埋?
开发者号称其数据来自1024等网站,但就算是在这些网站上高清露脸不打码的姑娘就要被公开示众?
不论是数年前震惊香港演艺圈的艳照门事件,还是今年差点掀翻韩国娱乐圈的“胜利事件”,疯传的不雅视频受害者均为女性。而此前报道,一对以结婚为目的的年轻情侣,每次床笫之欢都被男方偷录,后来不欢而散时,男方竟将其性爱视频全网张贴。如此种种“渣男”行径,难道不更值得曝光?
也许有人会说,这位程序员的初衷还是好的,但不论是将程序员作为高频被出轨对象,还是将全职妈妈认定为昼颜人妻,都是对某个群体简单粗暴的污名化。
这款程序或许已经删除数据,恐怕更应该删除的,是在技术掩盖下对个人隐私无休止的侵害,是利用科技“扒坟掘墓”挖他人黑料的窥私欲。
□白晶晶(媒体人)