港大男生用AI制作700多张同学不雅照暴露出人工智能时代技术伦理、法律规制与教育责任的集体失守
香港大学法律系男生利用AI技术将20余名女性同学、老师的社交媒体照片制作成700余张裸露色情照的事件,不仅是一起突破道德底线的个体犯罪,更暴露出人工智能时代技术伦理、法律规制与教育责任的集体失守。这起事件中,施害者身为法律专业学生却知法犯法,受害者包含师生关系网络中的弱势群体,校方处理被指“轻描淡写”——多重矛盾交织下,折射出数字社会治理的深层危机。
技术滥用:AI沦为犯罪工具的伦理崩塌
施害者使用的“一键去衣”技术,本质是利用深度学习模型对图像进行伪造重绘。此类技术并非高不可攀,2024年北京海淀区破获的类似案件中,犯罪嫌疑人白某某作为互联网公司技术员,通过境外社交平台发布“1.5元/张”的AI去衣服务,半年内制作近7000张色情照,涉及学生、教师等群体。技术中立的外衣下,是算法对人性尊严的系统性摧毁。更讽刺的是,施害者作为法律系学生,本应深谙“技术向善”的伦理边界,却选择将专业知识转化为犯罪工具——这种“高知犯罪”的悖论,暴露出技术教育中对法律精神与人文关怀的严重缺失。
法律困境:传统法规难以应对数字性暴力
现行法律对AI色情照的规制存在明显滞后。根据香港《刑事罪行条例》,制作、传播淫亵物品最高可判5年监禁,但本案中施害者尚未公开传播照片,是否构成犯罪存在争议。大律师陆伟雄指出,此类行为可能触犯“窥淫罪”或“有犯罪意图取用计算机罪”,但司法实践中缺乏先例。对比2024年北京海淀区案件,白某某因“制作、贩卖淫秽物品牟利罪”被公诉,但本案中施害者若未牟利,法律定性将更为复杂。这种立法滞后性,使得AI色情照成为“低风险、高收益”的犯罪温床——据网络安全机构统计,全球AI深度伪造色情内容市场规模已达10亿美元,且76%的受害者为女性。
教育责任:高校治理体系的系统性失效
香港大学的处理方式引发广泛质疑。校方仅发出警告信、要求道歉,并将处理结果存入学生档案,但受害者普遍认为惩处“缺乏诚意”。更荒诞的是,校方以“受害人分布各导修组别”为由拒绝调课,导致受害者被迫与施害者继续共处一室。这种“和稀泥”式处理,暴露出高校治理的三大漏洞:其一,对AI犯罪的认知不足,仍将其视为普通纪律问题而非刑事风险;其二,性别平等机制形同虚设,港大虽宣称“对性别歧视零容忍”,但实际处理中未启动性骚扰调查程序;其三,学生权益保护缺位,受害者需通过社交媒体曝光才能推动事件进展,凸显校内申诉渠道的失效。
反论审视:是否应“原谅年轻人的错误”?
部分观点认为,施害者可能因“好奇心”或“法律意识淡薄”犯错,应给予改过机会。但这种宽容忽视了三个关键事实:其一,施害者电脑中存有700余张色情照,涉及20至30名女性,表明其行为具有系统性而非偶然性;其二,其曾试图通过“仅涉及5人”的谎言淡化罪行,显示缺乏真诚悔意;其三,作为法律专业学生,其主观恶意远超普通技术滥用者。对比2024年山东威海AI换脸敲诈案,犯罪嫌疑人利用伪造照片勒索20万元,最终被判刑3年——技术犯罪的危害性,不因其“年轻”或“无知”而减轻。
破局之道:构建技术、法律与教育的协同防线
解决此类问题需多管齐下:立法层面,应修订《刑事罪行条例》,明确“未经同意制作深度伪造色情内容”为独立罪名,并提高量刑标准;技术层面,要求AI平台强制嵌入“数字水印”与“内容溯源”功能,如OpenAI已推出的DALL·E 3模型,可自动标记AI生成内容;教育层面,高校需将“技术伦理”纳入必修课程,并建立AI犯罪专项预警机制——例如,加州大学伯克利分校已开发“深度伪造检测工具”,可识别98%的AI生成图像。
从北京海淀到香港港岛,两起AI色情照案件跨越时空却本质相同:它们不仅是技术失控的警钟,更是社会治理体系的体检报告。当算法可以轻易解构人的尊严,当法律难以追上技术迭代的速度,我们迫切需要一场“技术人文主义”的复兴——让AI的发展始终服务于人的解放,而非成为压迫的新工具。唯有如此,才能避免“数字潘多拉魔盒”彻底释放人性之恶。