近日,一款名為“張雪峰.skill”的AI技能包上線,它通過收集張雪峰生前著作、采訪及語錄,提煉并復刻其思維模型,為用戶提供高考志愿填報、考研規(guī)劃等咨詢服務,被不少網友稱為“賽博復刻”。
同期,“同事.skill”也走紅網絡,只要導入特定個人的聊天記錄、工作文檔、郵件或截圖等資料,即可將其工作經驗“封裝”為AI模型,生成代勞瑣事的“賽博同事”。山東某公司運用“同事.skill”,將離職員工數(shù)據訓練出“AI分身”繼續(xù)上班引發(fā)熱議。
這一嘗試展現(xiàn)了AI在保存?zhèn)€體知識體系、延續(xù)專業(yè)服務上的巨大潛力。然而法律界人士指出,姓名、肖像、名譽及著作相關權益受法律保護,如未征得同意,使用其公開內容訓練AI,即便非商用,也涉嫌侵犯人格權與著作權,更觸及倫理與情感的復雜邊界。
從逝者到生者,從名人到同事,“AI分身”背后,法律紅線不可逾越。首先,無論是挖掘逝者生前數(shù)據,還是抓取同事工作記錄,未經許可處理敏感個人信息,違反個人信息保護法的知情同意原則。其次,聊天記錄和工作文檔往往包含核心信息甚至商業(yè)秘密,擅自打包進AI模型,極易引發(fā)知識產權與保密協(xié)議糾紛。
技術的迭代,使得對個體的“知識蒸餾”具象化、低門檻化,但可行不等于可為。面對這一現(xiàn)象,各方必須守住底線。
對監(jiān)管而言,步伐須更快,規(guī)則待細化。雖然民法典、個人信息保護法等提供了基本遵循,但關于工作中“隱性知識”產權歸屬、AI復刻人格的法律定性等問題,尚存諸多模糊地帶。這正是技術發(fā)展帶來的新命題。
對用人企業(yè)而言,要堅持科技向善,不能以“技術中立”或“提升效率”為由逃避主體責任。要嚴格界定數(shù)據收集范圍,開發(fā)涉及個人的AI產品前,必須履行嚴格的告知與授權程序。
對個人而言,亟需提升數(shù)字素養(yǎng),捍衛(wèi)自身權益。我們應意識到,在網上發(fā)的每一個帖子、每一個視頻都可能成為訓練“數(shù)字分身”的原料。面對各類平臺、企業(yè)的數(shù)據授權請求,務必審慎對待,仔細閱讀隱私條款,拒絕不必要的個人信息授權。同時,遭遇侵權時,更要勇于拿起法律武器。
技術是一面鏡子,“張雪峰.skill”“同事.skill”等折射出的,是我們在技術狂飆中的價值選擇。數(shù)字時代,人的主體性不容算法隨意解構,更不容肆意復刻。
(責任編輯:蔡文斌)