Image
全國統一服務熱線
0351-4073466

AI代寫愈加火熱,人工智能潛在隱患又該如何防范?


編輯:2024-01-05 11:39:28

時值年末,又到了一年一度寫年終總結的時候,*近,武漢的一家公司在朋友圈發布的招聘啟事引發關注。內容說:“今年在AI的協助下,大致會撰寫35萬份以上報告(去年是26萬份),年底來臨,有不少總結性報告要寫,招多個兼職報告撰寫人員。”據了解,有了AI加持,這家公司在精簡10%-20%人力的基礎上,單量卻比去年同期增加20%-30%。


此外,據報道,在某線上購物平臺,輸入“年終總結AI”“代寫”等關鍵詞,立刻蹦出許多相關產品。商家在產品介紹中寫下宣傳語:“AI智能原創、寫作必備”“懶人辦公”“三分鐘急速交稿”等。產品銷量一般在幾千單左右,有的店鋪月銷量達6萬單以上。


隨著科技快速發展,人工智能(AI)應用越來越廣泛,它深入到醫療、教育、娛樂等各個領域。如今,伴隨各類年度總結任務的集中涌來,AI代寫業務火了,然而,這看似*輕松的背后,卻隱藏著巨大的風險!


那么

人工智能應用使用過程中

隱藏哪些風險呢?

下面跟著小密一起來看!


圖片


人工智能在促進社會發展進步的同時,也伴隨著一些風險隱患,以今年爆火的ChatGPT為例,若被不當使用或濫用很有可能影響到國家安全、社會穩定、企業利益和個人用戶權益等諸多方面。


而ChatGPT類大模型加速了數字世界和物理世界的深度融合,引領人工智能進入新的發展階段。與此同時,人工智能固有的不確定性、不透明性、難以解釋、事實性錯誤等能力局限,對經濟發展、國際政治和全球治理等方面帶來深遠影響,引發了全球對大模型廣泛應用安全風險的熱議。如何應對人工智能風險并把握人工智能發展的戰略主動,有效保障國家安全,已成為我國國家安全治理的重要議題。


大模型技術引發新的安全風險和治理挑戰。隨著技術的更新迭代,人工智能的應用門檻持續降低,伴隨著誤用濫用情況的增加,經濟社會領域的多重安全風險也在交織疊加。


01




隱私泄露風險





根據相關報道,ChatGPT的訓練使用了45TB的數據、近1萬億個單詞(大概是1351萬本牛津詞典的單詞量)。其中很有可能就包括未經同意獲取的個人信息。除前述海量數據外,ChatGPT還能夠在與用戶一對一的對話互動中獲取信息。


在該軟件隱私政策不明了的情況下,個人信息是否會被存儲、泄露,甚至被惡意使用都不得而知。


02




知識產權風險





ChatGPT龐大的網絡語料庫中或許包含著他人擁有著作權的作品,故其生成的文本也存在嫁接他人作品的可能性。但它在輸出內容時卻未必能夠識別,也不一定會對用戶進行提示。在沒有得到原作者授權的情況下,ChatGPT產生的文本如果被使用,那么則很有可能是使用者承擔知識產權侵權的法律風險。


03




虛假信息風險





盡管ChatGPT被視為有史以來*智能的AI,但它畢竟也不是全知全能。比如在一段涉及《紅樓夢》的對話當中,ChatGPT就言之鑿鑿地宣稱,賈寶玉是賈元春的兒子。


盡管它在文字組織上的確能夠做到語句通暢,有條有理,但是并不能保障內容的真實準確。當用戶在自己不熟悉的領域向ChatGPT咨詢問題時,就很有可能因為這些看似“高大上”的回復,錯信了有誤甚至是虛假的信息,從而產生決策失誤、傳播虛假信息等諸多法律風險。


04




數據泄密風險




在高度智能化、自動化的應用場景中,ChatGPT在數據獲取、處理、結果展示等環節都存在重大的數據安全風險。


一是數據獲取階段。用戶在使用ChatGPT時,可能會輸入自己或他人的信息數據,從而導致隱私泄露。如果員工使用ChatGPT輸入各類工作數據,就可能導致公司敏感信息泄露。而一旦輸入涉及國家秘密或敏感內容的信息,則無疑會導致泄密。


二是數據處理階段。ChatGPT會將用戶輸入、交互的數據用于后續持續的迭代訓練,這就導致這些信息很可能被其他用戶獲取,從而構成數據非授權共享,進而出現數據泄密問題。


隨著人工智能的不斷深入

我們在面對AI帶來的種種風險時

又該如何應對呢?

且聽小密為你一一道來~


圖片


行業:
倡導AI技術合規使用和加強行業自律

第一,建立行業監管制度并開展合規性評估審查。建立健全AI服務行業監督管理相關制度與標準。包括算法分級分類管理、算法推薦服務安全管理、AI 濫用舉報等,并開展AI應用安全合規性評估審查與處置,實現行業監管閉環。

第二,創新研究應用人工智能賦能網絡安全技術。一方面,利用AI技術賦能針對復雜網絡攻擊的防御能力,使用 AI 技術應對其帶來的網絡安全風險;另一方面,研究利用AI技術提升企業組織在網絡安全攻擊檢測、數據資產識別與風險監測、業務安全風控、不良信息識別、電信反詐、安全威脅分析、深度偽造識別等方面的能力。

第三,做好元宇宙等AI融合場景的安全風險梳理與防護技術儲備。對于元宇宙和AI融合關鍵場景,要抓緊開展安全技術研究儲備,提早防范大規模人工智能安全事件發生。


圖片


企業:加強AI安全防護體系建設


PART.01





一是制定出臺企業組織AI安全總體策略,編制企業標準規范與技術指南;


PART.02





二是配備AI安全領域專業人員,支撐AI安全新技術新業務安全風險評估與創新技術研究;


PART.03





三是對員工在日常工作或對外服務中使用ChatGPT等AI應用行為進行規范,防范企業組織及客戶數據泄露等風險;


PART.04





四是強化安全技術手段建設,建設涵蓋網絡安全、算法安全、數據安全與隱私保護等功能的AI安全管控能力,為企業組織的AI能力與應用提供安全防護,保障AI業務健康發展。


圖片


個人如何防范人工智能潛在隱患


對于個人而言,除了避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防范意識。


保護信息,提高警惕。公眾要謹慎提交個人信息及企業數據,防范AI應用個人隱私竊取、有害言論誤導誘導等風險,防范利用ChatGPT熱點或者仿冒知名AI應用收集敏感信息實施詐騙等行為。


多重驗證,確認身份。如果有人自稱"熟人""領導"等通過社交軟件、短信以各種理由誘導匯款,或涉及網絡轉賬交易行為時,務必通過電話、見面等多途徑核驗對方身份,不要未經核實隨意轉賬匯款。


如不慎被騙或遇可疑情形,請注意保護證據,并立即撥打96110報警。




小密提醒


隨著AI產品的不斷更新,不少AI軟件推出了公文寫作板塊,人工智能開始悄然影響公文寫作等日常政務工作,作為機關、單位干部職工,如果偷懶用AI代寫,各種文件和數據泄露的后果將不堪設想!


不僅如此,由于AI寫作內容相對比較籠統,語言僵硬,不貼合實際情況,使用過程中還可能涉及信息泄露風險、侵犯知識產權等法律問題,所以小密建議大家,在工作中盡量不要使用AI寫作,多積累理論知識和實踐案例,才能成為真正的“筆桿子”!

圖片




END



來源:成華密語

Image
Image
版權所有:山西科信源信息科技有限公司??
咨詢熱線:0351-4073466?
地址:(北區)山西省太原市迎澤區新建南路文源巷24號文源公務中心5層
? ? ? ? ? ?(南區)太原市小店區南中環街529 號清控創新基地A座4層
Image
?2021 山西科信源信息科技有限公司 晉ICP備15000945號 技術支持 - 資海科技集團