在美国,越来越多年轻人选择通过网络相亲软件(dating app)寻找另一半。尽管相亲软件能给用户数不尽的选择,并承诺用算法为用户链接「更适合」的人。近日,知名相亲软件Coffee Meets Bagel被投诉有种族歧视的倾向,指出该软件可能不成比例地故意向用户展示和其族裔相同的用户,即使用户明确选择了对种族没有任何偏好。
被委托调查该案件的公司Zimmerman Reed在一篇公开声明中指出,希望在过去一年半内使用过Coffee Meets Bagel的用户能参与其组织的调查,并分享是否有感觉到种族偏见。该声明表示,加州民权法要求企业向加州居民提供充分且平等的优势、设施、特权和服务,而Coffee Meets Bagel可能违反了相关法律。声明还指出,如果用户参与调查且案例被证实,可获得最高4000元的法定损害赔偿,但公司并不保证任何具体结果。
居住在洛杉矶的华女小易是Coffee Meets Bagel的资深用户,她与前男友就是通过该平台认识。小易说,在使用该软件的过程中,系统确实会给她推送更多亚裔男生,但她并没有多想,以为只是做为亚裔女性的自己,可能天然更受同族裔的亚裔男性欢迎。小易认为,相亲软件的算法本身就是让更相似的人匹配,而种族不可避免会是其中的一个指针,她个人不认为是种族歧视。
使用过多个在南加热门的相亲软件的李小姐表示,无论在哪个软件上,尽管她从来不设置任何种族偏好,都会被算法推送更多亚裔男生,特别是华裔男生。李小姐表示,基于她的设置,算法应该公平地给她推送不同族裔的男生,而并不是揣测她的偏好,她认为这确实构成一种隐形的歧视,即默认用户更喜欢其同族裔。
社会学家Apryl Williams最新发表的著作「网络相亲中的自动性种族主义」( Automating Sexual Racism in Online Dating)指出,约会软件的算法有可能在加剧种族歧视,让少数族裔在网络相亲的环境里处于劣势。Williams采访了100 多人,了解他们使用相亲软件的经历,其中许多有色人种用户认为受到歧视,例如系统只展示与其外貌相似的人,或系统将其定义为「不够有吸引力」的人,从而得到的匹配很少。Williams认为,许多相亲软件会通过算法给用户评级,而非裔男性和亚裔男性往往是这个评级中最不受欢迎的群体,从而得到的匹配会更少。
另一位研究网络相亲的社会学家Celeste Curington也指出,互联网开创了一种新的相亲模式,一方面,它使人们能够与不同背景、工作、生活中不会遇到的人创建联系。另一方面,它仍然基于性种族主义,即便没有加剧种族歧视,也没有使情况好转,不少用户会遭遇恐同、歧视肥胖和厌女等深根在歧视中的体验。