全國咨詢熱線:010-67877741/42/43

系好“安全帶”,生成式人工智能才會更好發(fā)展

發(fā)布時間:2023-04-13 02:35:00 人氣:398 來源:中國安全防范產品行業(yè)協會

  人工智能通用大模型橫空出世,全世界看到了AIGC(人工智能生成內容)的強大。與此同時,AIGC的可信度、隱私保護、倫理等問題亦引發(fā)空前爭議。
  我國有關部門快速反應。4月11日,國家互聯網信息辦公室發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),提出二十一條舉措。業(yè)界認為,這是國內首次明確針對生成式人工智能服務征求管理意見,將有利于推動AIGC產業(yè)健康穩(wěn)定發(fā)展。
   AIGC負面影響顯現,行業(yè)亟待規(guī)范
  當前,人工智能越來越多地被應用于文本、圖像、視頻等生成工作,成為繼專業(yè)生成內容(PGC)、用戶生成內容(UGC)后的新型內容生產方式(AIGC)。
  然而從AIGC走進公眾視線的那一刻起,種種爭議就一直圍繞著它。
  版權之爭首當其沖。2023年初,商業(yè)圖庫GettyImage多次指控AI公司StabilityAI未經授權復制和使用其圖庫中逾1200萬幅受版權保護的圖片,用以訓練其AI圖像生成模型?!度A爾街日報》也表示美國新聞集團正準備向OpenAI、微軟和谷歌等公司提起訴訟,要求AI工具在訓練中對使用其內容的部分進行費用補償。
  數據安全、隱私安全等問題也隨之而來。據韓國媒體報道,三星內部已先后發(fā)生三起誤用濫用ChatGPT案例,包括兩起“設備信息泄露”和一起“會議內容泄露”,涉及半導體設備測量資料、產品良率等機密內容。而摩根大通、軟銀等企業(yè)已經開始限制員工在工作場合使用ChatGPT。
  更有人利用AIGC強大的內容生成能力偽造信息,多次引發(fā)熱議。比如近日廣州一女子在地鐵上的照片被他人使用AI技術“一鍵脫衣”,虛假圖片在網絡廣泛傳播;某男網紅使用“AI換臉”技術,替換掉電視劇中的男主角頭像,制作自己與女明星親吻的畫面;今年2月,有人用ChatGPT寫了一條“杭州市政府將取消機動車尾號限行政策”的假新聞,讓不少人信以為真……
  多國已對ChatGPT展開調查。4月初,意大利個人數據保護局宣布禁止使用聊天機器人ChatGPT,限制其開發(fā)公司OpenAI處理意大利用戶信息,并開始立案調查。加拿大聯邦隱私監(jiān)管機構也宣布對OpenAI展開調查,因其涉嫌“未經同意收集、使用和披露個人信息”。德國聯邦數據保護專員也表示,考慮數據安全,不排除封禁ChatGPT。
  AI發(fā)展正在加速,AI治理也需要提速。多位業(yè)內專家對人民網記者表示,我國此次出臺《管理辦法》非常及時,如此詳細的管理規(guī)定在全球范圍內也很鮮見。
  中國信息經濟學會副理事長、廣州大學網絡空間安全學院教授齊佳音說,《管理辦法》的發(fā)布距離OpenAI發(fā)布ChatGPT全球公測僅僅過去四個月,有可能成為國際上第一部規(guī)制生成式人工智能的規(guī)章制度,體現了我國在人工智能治理領域的敏捷反應能力,對于規(guī)范和促進AIGC的發(fā)展無疑具有重要的引領作用。它將為全球的AIGC監(jiān)管提供模版,有助于加快人工智能治理制度建設,推動AIGC產業(yè)規(guī)范有序發(fā)展。
   強調安全,是為了更好地促進發(fā)展
  業(yè)內專家認為,《管理辦法》強調權益保護,主要防范濫用行為。一方面是防范平臺濫用人工智能技術手段侵害用戶隱私,另一方面是防范用戶濫用生成式人工智能侵害他人權益。
  人民網董事長、總裁,傳播內容認知全國重點實驗室主任葉蓁蓁認為,主管部門出臺《管理辦法》并非要限制人工智能發(fā)展,而是通過規(guī)章制度來“系好 安全帶”,加快發(fā)展、更好發(fā)展。他強調:“在統(tǒng)籌發(fā)展與安全的問題上,不發(fā)展才是最不安全?!?
  我國高度重視人工智能技術發(fā)展,將其視為一項驅動科技創(chuàng)新、產業(yè)升級和生產力提升的戰(zhàn)略性新興技術。近年來,有關部門陸續(xù)發(fā)布《新一代人工智能發(fā)展規(guī)劃》《促進新一代人工智能產業(yè)發(fā)展三年行動計劃》《關于加快場景創(chuàng)新以人工智能高水平應用促進經濟高質量發(fā)展的指導意見》《關于支持建設新一代人工智能示范應用場景的通知》等多個政策文件,為人工智能核心技術攻關、產品落地應用以及探索發(fā)展新模式新路徑提供了重要指導。
  在今年的全國兩會上,科技部相關負責人亦專門強調,“將把人工智能作為戰(zhàn)略性新興產業(yè)和新增長引擎”,在推動人工智能基礎研究、應用推廣、開放合作等方面繼續(xù)給予大力支持,并同時推動建立人工智能安全可控的治理體系。
  齊佳音指出,此次公布的《管理辦法》為AIGC的研發(fā)和應用劃出了底線和紅線,即提供生成式人工智能產品或服務應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗。同時,明確了AIGC的“提供者”對研發(fā)和應用負有責任,即利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人需要對包括產品應用、安全評估、算法合法性、數據合法性等承擔責任。此外,《管理辦法》還為AIGC的研發(fā)和應用提供了糾偏機制。包括持續(xù)優(yōu)化糾偏、AIGC標識提示、可審查機制、監(jiān)管引導機制、終止服務機制和懲戒處罰機制。
  “《管理辦法》為AIGC的研發(fā)和應用第一次立了規(guī)矩,使得AIGC的研發(fā)和應用有了規(guī)制框架,對于規(guī)范和引導這一領域的發(fā)展具有十分重要的積極作用。”齊佳音說。
   專家呼吁進一步重視潛在風險
  記者注意到,此次《管理辦法》也對一些可能出現的衍生問題提出防范舉措,如,要求利用生成式人工智能生成的內容“應當體現社會主義核心價值觀”、防止各類歧視、“不得利用算法、數據、平臺等優(yōu)勢實施不公平競爭”“采取措施防止生成虛假信息“防止傷害他人身心健康”等。
  “這一點非常值得關注?!饼R佳音解釋說,以ChatGPT為例,其具有強大的類人化自學習能力和交互式文字處理能力,自動化語言生成帶有強烈的類人化語言風格,這讓ChatGPT有可能擺脫單一的技術身份而擁有了類人化社會角色,成為深度參與和介入社會關系的“代理”。如果不加以限制,AIGC帶來的“人-機”社會互動將有可能代替真實的“人-人”社會交往,成為干擾人類真實社會關系的核心要素,這將帶來技術的異化和人的異化,是必須要加以防范的。
  葉蓁蓁指出,AI平臺是有立場的,AI生成的內容是有導向的,所謂“技術中性”是不存在的。因此,無論是喂養(yǎng)人工智能的語料數據,還是模型本身的算法,都必須高度關注其政治方向、輿論導向和價值取向問題。不能放任AI脫離人類視野,不能無視AIGC“生成即傳播”特性的潛在風險,要積極探索AI應用和治理之道。
  在AIGC價值觀培養(yǎng)方面,清華大學教授沈陽建議:應該有更多“人的介入”。其中關鍵是要為大語言模型提供更多的解釋性語料,這對于修正AI的價值觀偏見以及知識成見非常重要。
  據了解,目前人民日報社主管、依托人民網建設的傳播內容認知全國重點實驗室已初步建立了AI意識形態(tài)風險評測體系。該體系就采用了人機協作的方式進行測評。
  為從源頭上防止“技術脫軌”,在制度建設方面,4月4日,科技部在《科技倫理審查辦法(試行)》征求意見公告中提出,從事生命科學、醫(yī)學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。
  沈陽表示,每一個AIGC平臺都應設有倫理審查委員會,以確保其在發(fā)生大規(guī)模涌現時,符合法律道德和倫理規(guī)則。“我們現在對于訓練師、心理師、倫理師、提示師的重視程度還不夠,需要進一步提升?!?
  齊佳音指出,隨著技術的快速發(fā)展,相關規(guī)章制需要持續(xù)優(yōu)化,建議后續(xù)進一步推出AIGC安全評估規(guī)范和管理流程規(guī)范。
  “應健全研發(fā)、審核、應用與安全等多維標準規(guī)范體系,完善AIGC技術創(chuàng)新生態(tài)?!眰鞑热菡J知全國重點實驗室科技發(fā)展部主任楊松建議,應加快構建國家頂層規(guī)劃、龍頭企業(yè)牽頭、高??蒲袡C構共同支撐的創(chuàng)新鏈產業(yè)鏈融合體系,完善數據共享機制,大力推動數據資源匯聚。
聯系我們
聯系方式

熱線電話

13910555092

上班時間

周一到周五

公司電話

010-67877741/42/43

二維碼