"智能无限.权利有界”AIGC人格权侵权研究实践队队员赴多地实践访谈
2026-02-26 10:32:59

自从2022年末Open AI发布以来,生成式人工智能得到广泛发展,然而这种“技术平民化”浪潮,在释放巨大生产力与创造力的同时,也带来了前所未有的伦理挑战。为应对AIGC技术发展带来的法律风险挑战,武汉大学法学院“智能无限.权利有界”实践队从民商法视域出发,从生成式人工智能侵权主体、侵权客体、侵权特点等方面展开调研,力求为生成式人工智能的进一步法律规制提供参考。

在本次实践中,实践队开展跨区域专项调研。队员分赴安徽合肥、湖南沅陵、陕西西安、福建厦门等地,分别与 AIGC 企业高管、法院工作人员、执业律师等主体展开深度访谈,围绕 AIGC 个人信息保护、侵权认定、司法裁判、合规治理等核心问题交流探讨。深刻挖掘了行业实操与司法实务的一手信息,梳理出 AIGC 人格权保护的痛点与难点,为该领域的理论研究与实践应用积累了宝贵素材。

法律视角:侵权类型特点与司法裁判倾向

为了解关于AIGC人格权侵权相关的司法裁判倾向与侵其相对于传统侵权类型的新特点、新难点,实践队员就 AIGC 人格权侵权案件现状采访了法官、律师等法律行业从业人士以及AIGC企业从业人员。实践队队员樊同学访谈的法官表示,获悉此类属新型网络侵权纠纷,受访法院暂未受理,但随 AI 技术普及,案件数量将呈上升趋势。法院已提前开展学习培训、赴上级法院交流等应对工作。队员也获悉了法院在处理相关案件中可能面临的问题。在立案阶段主要存在诉讼请求难确认、被告身份难明确等问题;在审理过程中,核心难点是主观恶意界定,法院会借助技术调查官提供专业技术意见,但对于主观恶意的界定依然存在不足。责任认定方面,法院从用户主观意图、指令内容与使用场景,AI 提供者风险防范义务,平台监管措施三方面划分。法官建议未来立法应明确各方权利义务边界,厘清主体与过错认定,为 AI 发展提供法治保障。实践队胡同学采访的律师则表示,AIGC侵权的特点是侵权链条更长,所涉及的主体更多,方式也更隐蔽。认定侵权行为的核心,即”可识别性“问题也是重要的点,实践中要结合上下文、传播方式、公众认知等因素综合判断。在侵权后果的举证方面,当事人通常需要以截屏等方式固定证据,但对于生成内容来源难以确定。实践队陈同学采访的AIGC企业从业者则表示,对于企业,其中一个突出问题是人脸、声音等生物识别信息的采集与合成。未经授权的合成技术已非常成熟,可能导致虚假形象或声音被滥用,例如冒充本人与亲友交流。这在法律层面亟须严格管控,确保授权明确。

法治应对:AIGC人格权侵权的法律风险应对渠道

对于AIGC技术所带来的侵权风险,实践队陈同学采访的AIGC企业从业者表示,平台需要落实”知情—同意“机制与通知删除机制,同时在数据处理与训练阶段注意保护公民的相关数据与人格权益,强化相关审核机制与事后补救措施;同时对于用户自身来说,也要增强法制意识,重视自身权益的保护,同时也要避免侵犯他人合法权益;对于相关机制的建立,他表示通过立法平衡技术发展与公民人格权益的保护是最重要的,而在监督机制上则需要自下而上建立行业标准,避免过度干预。实践队张同学采访的律师则指出,服务提供者作为技术源头,应当承担更高的注意义务,审核并及时删除有侵权风险的作品;对于用户来说,可以尝试以诉前禁令的方式及时制止侵权传播,但需要更充分的证据以支撑其保全行为;对于企业,也要建立AIGC使用合规制度,对训练数据和生成内容进行严格审核。

结语

从企业的实操治理,到法院的司法准备,再到律师的实务探索,本次跨区域调研让实践队员全方位接触到 AIGC 人格权保护的行业与司法现状。我们看到,AIGC 技术飞速发展的同时,也带来了个人信息泄露、侵权认定困难、责任划分复杂等一系列问题,而立法完善、行业标准统一与相关制度完善成为破局关键。作为调研者,实践队将整理分析此次访谈的珍贵成果,为 AIGC 时代人格权保护的理论研究与实践落地贡献青春思考,在未来也将持续关注这一领域的发展,以不断探索构建技术发展下的权利守护边界。


 
 
 

 

热点推荐

即时新闻

武汉