analysis

星期六, 12月 21, 2024

IP圓桌會議

(本文為學校圖書館主任協會會訊而寫) 

這場會議於香港書展期間舉行,感謝會長邀請出席旁聽。IP即知識產權(Intellectual Property),看起來不知想講甚麼﹖其實英文講題「AI, Copyright and Collective Licensing in the Asian-Pacific Region」更清楚反映內容。

我們聽到人工智能(AI)和版權會想起甚麼﹖身為一般用家大概有兩種憂慮﹕
1. 我們的作品被開發生成式人工智慧的科技巨企無償使用。(他們的產品卻可以拿來賺錢)
2. 我們使用生成式人工智慧時,產生的作品版權誰屬﹖(我能否擁有作品版權﹖抑或其實還是屬於巨企的﹖)

由於大部分講者都是各地版權協會的代表,所以論點自然集中於以「透過版權組織集體授權使用」(Collective Licensing)作為解決AI版權問題的方案。 

---

第一位講者是 IFRRO (國際複製權組織聯合會)代表 Sarah Tran (看姓氏似是越南裔),她表示知識產權提供大量就業、亦刺激旅遊和出口。例如在香港,知識產權就涉及32.7%的GDP和29.1%的就業。(沒留意她的數字如何計算出來,因為統計處網頁似乎沒有直接提供這方面的數字。)
PWC(羅兵咸永道)一份報告指,到2030年AI將對全球經濟貢獻$15.7萬億,超越中印兩國總和。其中$6.6萬億來自生產力提升,$9.1萬億來自消費面。

集體授權的重要性,來自於創作者非常多元(例如澳洲的版權組織向超過36000人分派收益),而且大部分的收入來自二次使用(英國報告指出超過25%的作者有超過60%收入來自二次使用)。

這些組織最不滿的是,AI的版權法律方面不清晰,而現時法律偏向科技巨企,讓他們可以無償使用版權作品謀利,一般創作者沒有選擇權。

---

第二位講者是新加坡版權組織CLASS的CEO Andrew Fong(咦剛好這裡有個人同名,笑﹗),他表示新加坡與AI相關的版權立法寬鬆程度「僅次於日本」。新加坡的版權法每三四年就會修訂,就在生成式AI還未普及之前,《2021年版權法》已經為對作品進行電腦數據分析提供版權豁免(十分有前瞻性,只是令版權擁有人不高興的方向)。此法例強勢到版權擁有人不能以使用條款或合約凌駕豁免。只要是在新加坡發表的作品,就會受這條法例影響。

新加坡政府的願景,是2030年成為全球知識產權交易樞紐。只是這項立法如何有益這方面﹖我就不太明白了。

---

第三位講者是的近律師行合夥人Theresa Luk,她講的內容可能對我們較有用。她指出生成式AI可能產生四種版權問題﹕

1.  Passing-out﹕例如直接把名人或公眾人物的樣貌行成假影像。(如果當成商業用途,算是侵犯當事人的權利,因為人們會誤以為當事人認可此產品或服務。)

2. Trademark infringement﹕英國案例 Getty Images v Stability AI (2023)中,AI拿了Getty的足球賽照片生成另一幅圖片,竟然連Getty的水印都保留了。結果被Getty告上法庭。

3. Copyright infringement - output﹕內地案例 Ultraman (2024)中,有個AI繪圖平台,容許用家輸入Ultraman(方按﹕大概是中文「奧特曼」吧﹖),並生成相當類似鹹蛋超人的圖像。於是Ultraman的內地代理告上廣州法院,法院認為AI平台未有採取預防措施(例如讓版權持有人投訴後把其圖像從資料庫刪除的機制、警告語句、或者阻擋與特定版權產品的關鍵詞),判決賠償一萬元人民幣。

4. Copyright infringement - dataset﹕美國案例 Tremblay v. OpenAI et al. (2023)中,因為科企用有版權的書籍訓練 ChatGPT,除了侵犯版權還涉及不公平競爭。原告認為被告免費取得版權作品訓練其模型作商業用途,構成不公平營商。而 OpenAI 則以公平使用(fair use)作侵犯版權的辯解。訴訟還在進行中。

另一方面,AI產生的作品又能否享有版權保障﹖
內地一宗案例中,原告於stable diifusion輸入了詳細的正負面提示,讓AI產生目標圖像,然後放上社交媒體,被告卻未經同意取作商業用途。內地法院認同原告,認為原告輸入的詳細提示已屬智力投入,應享有版權保障(按﹕即是你寫得不夠仔細就未必受保障)。而AI模型並非自然人,所以不能享受版權,所以版權並不屬於stable diifusion而屬於原告。(方按﹕情況就像你用MS Word打文件,版權應該屬於你,不是屬於微軟。)
而美國版權局看法則相反,他們認為AI生成不是人類產生(human authorship),不應享有版權保障。

至於香港現有版權條例(政府於本年七至九月進行諮詢),跟美國不同,容許無人類作者、純電腦產生的作品也享受版權。

如何減少AI帶來的知識產權風險,講者建議留意以下六點﹕

1. Check data origin and the AI platform﹕使用可靠的平台,避免發生上述 passing-out 那類產生名人或商標圖像的問題。

2. Check warranties & indemnities﹕即是看清楚條款。

3. Develop guidelines on AI use + document process﹕機構應對員工運用AI提供指引,並要求清晰紀錄,以便有爭議時可追查。

4. Due diligence to verify legality﹕例如採用 reverse generative check 檢查生成式AI圖像。

5. Use a private AI solutions﹕控制到輸入的資料,自然可避免觸犯版權。講者同時提醒,有些AI平台可能會保留產生的檔案作進一步學習用,所以使用外界AI平台時,不應使用內部不能公開的數據,否則機構有洩密之虞。

6. Stay informed on technology and law

 ---

第四位講者是紐西蘭版權授權組織代表Sam Irvine,他們認為科技巨企只是用「研究」作偽裝謀利,以AI生成作品取代真正的人手創作。(方按﹕某程度上讓我想起「手工薯片」的定義,原來只要「人手炸」便可稱手工薯片,大概人類給提示指令AI產生作品就已經算「人工」了。)

他引用Adobe CTO Ely Greenfield的話﹕人們的勞動應該得到公平補償。

講者認為生成式AI的版權問題可分為三類﹕
1. 以版權作品輸入到AI模型的問題
2. AI生成作品可能侵犯版權問題
3. AI生成作品本身的版權問題(方按﹕上面Theresa Luk講得詳細。)

他認為無論是輸入面或輸出面,集體授權都是最有效的方案,最方便所有持份者。

(方按﹕可惜大會不設公眾問答環節,否則我會嘗試問他們,現在創作不像以前CASH服務的作詞人般只屬少數人,任何人貼篇文貼張相就已經是創作者,但AI是在網上廣泛取材的,難道要所有人都入會嗎﹖否則你們怎可能代表「所有人」去跟企業談版權﹖)

紐西蘭的版權授權組織也推出了 MyCreativeRights 網站,方便個體創作者登記、保護作品版權。

---

最後一位講者是公益財團法人日本複製權中心(JRRC)常務理事壹貫田剛史,他們認為生成式AI的主要問題是,AI未經同意取得版權作品作機械學習,跟著可以自動產生大量作品,影響創作者收入。機械學習不只可能包括盜版侵權甚至非法內容,而且它們「塘水滾塘魚」也會影響未來創作的廣度。(方按﹕大概是指AI模式迫走人類創作者就只能自行或互相取材,變成「塘水滾塘魚」。)
不只是創作者受影響,AI平台和利用者由於版權問題不明,一樣會面臨侵犯版權的風險。而且AI利用者製作的作品是否受版權保護亦不清楚。

講者引用了一些日本政府的文件,並指出日本新聞協會(報業協會)去年已提出不滿科企未經同意取得他們的報導去訓練AI,要求政府盡快修訂法例,讓他們有權同意或反對AI應用其報導。

講者跟著提出日本著名律師行森・濱田松本法律事務所岡田淳律師的歸納,處理AI版權問題的三大方向及其限制﹕

1. 要求事先取得版權持有人同意
1.1 如此只有少數公司有足夠的議價能力獲取授權,將令AI模型更易出現偏頗。(方按﹕亦因為不是所有作品的版權擁有人都願意授權,因此AI模型獲取的輸入資料本身偏頗會更嚴重。)
1.2 也因為現有的AI模型因為已取得大量資料,新制下會維持優勢,AI市場更易出現壟斷和寡頭壟斷。
1.3 而就算有法例要求事先同意,AI模型的運作本身亦有如黑箱,版權擁有人實質上也難以檢查科企有否侵權。

2. 若未能獲取授權、版權擁有人可索取補償—這是新聞協會的立場
2.1 這很明顯忽略了不欲作品被採用者的要求。(方按﹕因為報館不介意別人用,只介意沒錢收,故傾向此方案。)
2.2 生成式AI的學習過程本身混合了大量不同作品,結果根本難以公平分配收益給版權擁有人。(方按﹕誰計算到某件AI生成作品,你的原作應佔多少比例﹖)

(講者指出,美國演員工會採納的方案是,利用AI生成藝員影像者,有責任取得相關演員的同意。)

3. 毋須事先授權,但版權擁有人可要求選擇退出作品(opt-out)—這是歐盟現時的立場
3.1 難以訂定版權擁有人和AI平台雙方都接受的退出機制。
3.2 AI發展大多由大學和科企共同研發(方按﹕現時很多科研皆如是),難以區分取用版權作品是否純屬科研用途。(方按﹕正如Sam Irvine前述,科研可「偽裝」或掩護商業使用。)
3.3 (如1.3) 版權擁有人技術上很難檢查作品是否真的退出了AI模型,何況AI模型已「學習」過的東西亦很難單獨抽出刪除。(方按﹕就正如誰都無法讓你真正「忘記」某件事,因為它已在腦海中。)

講者指現時日本法律依賴指引規管AI,過於軟性、難以追查。上述三大規管方向都各有不足。

(方按﹕與其追求版權組織集體代理,其實是否應該像消委會般,設置一種政府資助的版權申訴機構,協助作品太少以致加入私營版權組織也沒多少經濟效益的一般人﹖)

---

如前述,會議不設公眾問答環節,由主持提問,講者補充若干內容。

Tran表示現時AI多以英文文本作材料,不太適應其他語言需要。挪威剛剛自行發展了輸入挪威文內容的AI,同時可透過授權文件確認內容真確。她強調版權市場在AI並非失效,只是科技巨企在規避和「troll」,要集體迫這些巨企進入談判桌才能解決問題。

Fong表示全球政府都在觀望事態發展,等待其他國家提出好方案然後跟風。
壹貫田則指美國科企曾經利用遊說集團向日本遊說修改版權法便利它們。

沒有留言: