生成式AI的版權及私隱需要關注 (經濟一週「博立群股」專欄) - 中原博立
生成式AI的版權及私隱需要關注 (經濟一週「博立群股」專欄)

生成式AI的版權及私隱需要關注 (經濟一週「博立群股」專欄)

近日,Unity(U)推出兩款全新的AI產品UnityMuse創作平台和UnitySentis引擎,旨在幫助創作者增強即時3D(RT3D)內容。其最終目標是讓用戶能在Unity編輯器裡藉助文字提示或草圖輕鬆實現創作。其中Unity Muse裡面的Muse Chat具備AI搜索Unity文檔及培訓教程,可運行的代碼示列,輸入內容來快速排除故障,或是簡單獲得各種情報資訊去加快開發和答疑。此外,Muse Chat中還可以實現輸入文本便能生成角色模型動畫,同時也可以快速生成2D的Sprite。由於還在封閉測試期,Muse的實際使用效果還未可知,不過根據官方的效果展示,可以看出其功能以及產出品質都還是可以的。

AI產品的終極理想是可以用比人類快得多的速度生成內容和開發應用程式。這使企業能夠簡化運營、提高生產力並更快地將內容或應用程式推向市場。通過自動化內容創建和應用程式開發,組織可以節省勞動力成本並減少對大量人力資源的需求。它還可以處理重複且耗時的任務,從而釋放人力資源以專注於更複雜和更具戰略性的活動。

不過,一些開發人員和專業藝術家批評這些工具不切實際、不道德或法律上可疑。不同國家關於人工智能程序使用的法律仍然懸而未決,這些程序經常在未經創作者同意的情況下在互聯網上抓取藝術、寫作和編程內容,針對工具本身和使用它們的公司都提起了訴訟。許多開發人員提出的第一個問題是“你在什麼數據集上訓練這些數據?” 但Unity的聲明並沒有解答這些擔憂,只提到了它使用獲得許可的第三方LLM大語言模型,Muse Chat裡面的LLM不是自己的自家開發的LLM,但是沒有聲明是用了哪家公司的LLM模型,Unity可能沒有進行盡職調查來確定資料集的來源,並且很可能他們使用的第三方廠商 LLM 是基於被盜的個人資料和從未同意這樣的事情的人的對話而建立的,意思是AI底層大語言模型研發提供者,有可能並不認定為隱私資料合規上的法律主體。不過Unity之前在技術開放日也講述會探索將用戶的隱私數據更安全地在本地做管理,在保護用戶隱私的情況下,用戶可以實現在本地部署引擎,可見他們也會注重數據隱私。

不過這種LLM訓練方面的數據隱私也不是第一天的爭議了,事實上,自OpenAI推出後便一直對如此大規模手機個人數據引發了有爭論與擔憂,例如,根據歐盟的通用資料保護條例(GDPR),未經資料主體通知或同意就大量個人資料訓練商業模型缺乏法律依據。 因此,出於隱私考慮,義大利甚至禁止使用 ChatGPT,然而語言模型的隱私分析仍然很少被探索並且仍然是一個未知的領域,大多數 LLM僅提供應用程式設計發展介面(API),公眾無法檢查模型權重和訓練語料庫。不過從原始資訊到可供模型訓練的資料的過程中,個人資訊的成分是不斷衰減的。最後,也不可否認,負責任的模型開發者會在研發階段對包括隱私在內的資料安全問題應予以高度關注,在資料來源中包含的個人資訊也會主動採取刪除、匿名化等措施,進一步降低隱私和資料合規風險。

簡志健,持證監會持牌人士,博立聯合創辦人/中原資產管理投資總監
傅可怡,持證監會持牌人士,博立研究團隊/中原資產管理高級分析員
執筆之時,筆者及其客戶沒有持有上述提及的股票

中原博立

「博立」品牌,由兩位知名及經驗豐富的投資總監 - Michael Kan 簡志健 和 Larry Hung 洪龍荃共同創立。他們除以價值投資為基礎,更重視公司的商業模式、企業文化及增長潛力,致力發掘可持續增長且有機會被重估價值的公司。他們非常重視公司質素,勤於公司專訪,深信投資決策應該根據基本研究及分析而決定。他們也極其重視風險控制及操作紀律,投資風格經歷多年實戰的驗證,長綫回報傲人。

中原「博立」全權委託投資組合管理服務