首頁 資訊 AI技術濫用的風險、治理面臨的挑戰(zhàn)與路徑

AI技術濫用的風險、治理面臨的挑戰(zhàn)與路徑

來源:泰然健康網 時間:2025年05月19日 18:26

  近日,中央網信辦印發(fā)通知,在全國范圍內部署開展為期3個月的“清朗·整治AI技術濫用”專項行動。本次專項行動分兩個階段開展。第一階段強化AI技術源頭治理,清理整治違規(guī)AI應用程序,加強AI生成合成技術和內容標識管理,推動網站平臺提升檢測鑒偽能力。第二階段聚焦利用AI技術制作發(fā)布謠言、不實信息、色情低俗內容,假冒他人、從事網絡水軍活動等突出問題,集中清理相關違法不良信息,處置處罰違規(guī)賬號、MCN機構和網站平臺。

  近年來,AI技術以其強大的數據處理和智能決策能力,為各行各業(yè)帶來了巨大變革,其在提高生產效率、優(yōu)化服務質量,以及推動科研創(chuàng)新、助力社會治理等方面,日益展現出無可比擬的優(yōu)勢。但隨著AI技術的應用滲透到社會生活的各個領域,其濫用風險也日益凸顯,若得不到恰當規(guī)范,可能會對公民個人隱私權的保護、社會的公平和秩序、國家的治理和安全穩(wěn)定等帶來沖擊。為規(guī)范AI技術的服務和應用,中央網信辦在全國范圍內部署開展“清朗·整治AI技術濫用”專項行動,引導相關行業(yè)健康有序發(fā)展,保障公民合法權益。

  AI技術濫用的風險

  AI技術的濫用風險包含個人隱私泄露、算法歧視及數據安全等。在個人隱私方面,人工智能系統(tǒng)分析的數據通常為大量個人信息,在個人數據收集和利用環(huán)節(jié)中,如果出現系統(tǒng)漏洞、操作人員疏忽或外部黑客攻擊,就可能導致數據被未經授權的人員獲取,從而泄露個人信息,甚至被用于詐騙或其他不法行為。在社會公平方面,AI系統(tǒng)算法設計和應用運行過程中,可能存在數據偏差、算法偏見和操作人員的故意操縱,進而使處于弱勢地位的群體面臨各種不公平待遇,阻礙社會公平與發(fā)展。如某公司曾開發(fā)一款用于自動簡歷篩選和初步面試評分的AI系統(tǒng),該系統(tǒng)的訓練數據主要來源于過去幾年的招聘記錄,而該公司過去的員工隊伍中男性占比較高,這使得該AI系統(tǒng)在學習過程中強化了這種性別不平衡,導致對女性求職者的評分普遍偏低。此外,安全方面,除數據本身可能被攻擊與篡改外,還可能使基于人工智能技術生成的信息與服務面臨黑客攻擊,這不僅會導致數據丟失甚至系統(tǒng)癱瘓,還可能對國家安全構成威脅。

  除此之外,隨著人工智能技術的不斷演進及應用場景拓展,既有的濫用風險可能會呈現出新的形態(tài)和特征,而全新的濫用風險和問題也將不斷涌現。如AI技術在社交媒體等領域可能會形成信息的失實傳播與誤導,AI技術的深度偽造功能還可被直接用于制造虛假信息,這不僅會對社會輿論造成嚴重影響,還可能被用于欺詐等犯罪活動。同時,復雜的惡意算法程序,還可能以更隱蔽的方式進行市場操控,從而引發(fā)不公平競爭。

  治理AI技術濫用面臨的挑戰(zhàn)

  目前,AI技術濫用的風險呈現多樣性與多變性,這使得其治理存在諸多挑戰(zhàn)。

  技術標準和規(guī)范的科學性、通用性和可執(zhí)行性仍存在一定難題。一是在法律規(guī)制方面,針對AI技術規(guī)制的法律法規(guī)還不完善,對算法濫用行為的判定和處罰目前缺乏明晰的定義和依據,這可能引發(fā)市場分割、逃避監(jiān)管等現象,而跨國界的AI數據流動和技術應用則進一步帶來了法律適用和管轄權等棘手問題。二是標準的剛性有待加強。部分企業(yè)和組織因為技術實力有限、過分追求利益最大化和成本控制,對技術標準執(zhí)行不嚴謹、不嚴格。三是伴隨著AI技術的迭代升級,相關標準往往滯后于其技術的升級,從而使新的濫用手段、方法層出不窮,容易造成治理被動。

  監(jiān)管的準確性和有效性有待提高。一是監(jiān)管機構對AI技術專業(yè)知識和技能的儲備有限,使得難以準確識別和有效打擊濫用行為。二是AI技術濫用行為往往具有跨地域、跨行業(yè)特點,現有監(jiān)管體制在部門間和區(qū)域間的協(xié)同合作上尚存在一些障礙,無法充分提高其監(jiān)管效能。此外,由于AI技術的復雜性和隱蔽性,濫用行為往往難以被及時發(fā)現并取證,即使被發(fā)現的濫用行為,也可能因為難以對其合理定性和量刑從而怠于治理。

  AI技術在關乎生命權、道德決策和社會責任的應用場景中缺少具有普遍性的倫理尺度。例如,自動駕駛的“電車難題”,即當發(fā)生不可避免的事故時,自動駕駛汽車究竟應該把保障車內駕駛員的生命放在首位,還是把保證路上行人的人身安全放在首位?實際的交通環(huán)境是不可預估的,在發(fā)生事故時留給自動駕駛系統(tǒng)作決策的時間很少,信息處理需要速度很快。由此可見,要解決“電車難題”不能只停留在理論層面,而是要從技術和制度層面不斷創(chuàng)新。在教育領域,普及AI教育機器人雖然為個性化教學提供了新的可能,但也引發(fā)了關于教育公平性、人文關懷等問題的討論。這些倫理道德問題不僅影響AI技術的社會接受度,也為其治理工作帶來了諸多困擾。

  AI技術濫用風險的治理路徑

  AI技術的濫用不僅是一個技術問題,還涉及法律、倫理、社會等多個層面,對其治理是一個復雜而系統(tǒng)的工程,要綜合、全面考量。

  健全法律法規(guī)。首先,根據AI技術的特點和使用場景,制定具體法律法規(guī),明確規(guī)定AI技術的使用范圍、條件及禁忌,明確規(guī)定AI系統(tǒng)的安全性及技術指標,明確規(guī)定違法使用應承擔的法律責任等。同時,對現行的法律法規(guī)進行及時修改、完善,確保相關法律法規(guī)能及時對新出現的AI技術濫用問題進行規(guī)制,以保障監(jiān)管工作有法可依。其次,加強對執(zhí)法人員的培訓和教育,提高他們的專業(yè)素養(yǎng)和執(zhí)法能力,做到有法必依。最后,加強國際間相關領域的交流合作,打造全球統(tǒng)一的AI技術治理規(guī)則體系,以應對各種風險挑戰(zhàn)。

  加強對技術的監(jiān)督與評估。一方面,建設規(guī)范的執(zhí)法機制和監(jiān)督機制,設立專門的監(jiān)管機構,承擔對AI技術的研發(fā)、應用和推廣的整體性、過程性監(jiān)督;另一方面,加強對人工智能系統(tǒng)的安全審查和測試,建立定期安全審查制度,對人工智能系統(tǒng)定期進行安全漏洞掃描和風險評估,及時發(fā)現問題、修復漏洞。在此基礎上,進一步建立算法設計和數據質量評估機制,要求開發(fā)者提供人工智能算法及其數據使用情況的說明,并定期審查系統(tǒng)的運行數據,確保數據透明、準確、可解釋,以避免出現算法歧視、算法偏見等問題。除此之外,還應加強對AI技術應用場景的監(jiān)管和評估,密切關注AI技術在各個領域的具體運用情況,及時調整不合理的應用。

  推進倫理道德建設。推進倫理道德建設,既有利于促進AI技術健康發(fā)展,也是維護社會公平正義的內在要求。首先,強化倫理道德的教育和宣傳,提升公眾對AI技術倫理道德問題的認知。其次,形成倫理道德審查機制。在AI技術應用于實踐之前,對其應用場景、算法設計等進行全覆蓋的倫理道德審查、評估,對可能涉及的倫理道德問題進行深入的討論分析,確保其符合社會價值、倫理道德。最后,強化行業(yè)自律和社會監(jiān)督。行業(yè)協(xié)會應制定完善的行業(yè)規(guī)范,要求會員單位在研發(fā)和應用AI技術時嚴格遵守行業(yè)規(guī)范。同時,鼓勵公眾、媒體和其他利益相關者加大社會監(jiān)督,一旦企業(yè)出現違反倫理道德的情況,要及時對其進行糾正。在這一過程中,企業(yè)應積極履行社會責任,在倫理道德上嚴于律己,建立良好的企業(yè)內控制度和企業(yè)道德規(guī)范,確保AI技術的研發(fā)和應用在倫理道德的約束范圍內進行。

 ?。ㄗ髡邌挝唬何靼搽娮涌萍即髮W馬克思主義學院)

相關知識

生成式AI賦能醫(yī)療數智化應用 “AI+醫(yī)療”服務模式還面臨哪些挑戰(zhàn)?
AI醫(yī)生:發(fā)展現狀、挑戰(zhàn)與未來展望
生物技術的未來:機遇、挑戰(zhàn)與中國的領先之路
土壤新污染物探秘:風險、機制與綠色治理路徑
監(jiān)管生成式AI:數字健康專家委員會討論FDA面臨的挑戰(zhàn)
健康保險行業(yè)數字化轉型的挑戰(zhàn)
Protenus如何利用AI應對醫(yī)療挑戰(zhàn)
治療師與保險公司:AI如何終結心理健康護理之戰(zhàn)
打造可信AI:產學研聯(lián)合探索AI安全治理
AI技術突破,開啟醫(yī)療新紀元

網址: AI技術濫用的風險、治理面臨的挑戰(zhàn)與路徑 http://m.u1s5d6.cn/newsview1284270.html

推薦資訊