我們擅長商業(yè)策略與用戶體驗(yàn)的完美結(jié)合。
歡迎瀏覽我們的案例。
IT之家 8 月 6 日消息,據(jù)外媒 404 Media 5 日?qǐng)?bào)道,維基百科的編輯者剛剛通過了一項(xiàng)新政策,以應(yīng)對(duì)大量 AI 生成條目充斥平臺(tái)的現(xiàn)狀。該新政策賦予管理員權(quán)限,在滿足特定條件的情況下可迅速刪除 AI 生成的文章。
WikiProject AI Cleanup 的創(chuàng)始成員 Ilyas Lebleu 表示:“雖然某些跡象可以幫助我們辨識(shí) AI 內(nèi)容(例如措辭、破折號(hào)的使用、加粗標(biāo)題的項(xiàng)目列表等),但這些特征通常并不絕對(duì)明確,我們也不希望僅憑某段文字聽起來像是 AI 寫的就誤刪條目。”
“總體而言,AI 內(nèi)容的泛濫被描述為對(duì)維基百科的一種‘生存威脅’:我們的工作流程向來依賴(往往是冗長的)討論與共識(shí)構(gòu)建,而若沒有相應(yīng)的快速刪除機(jī)制,AI 可以極高效率地生成大量虛假內(nèi)容,就將成為嚴(yán)重問題。當(dāng)然,AI 內(nèi)容未必特別糟糕,人類同樣可以寫出糟糕內(nèi)容 —— 但人類產(chǎn)出速度遠(yuǎn)不及 AI。我們的工具是為完全不同的內(nèi)容產(chǎn)量規(guī)模而設(shè)計(jì)的。”
IT之家從報(bào)道中獲悉,維基提出的解決方案,是對(duì)明顯由 AI 生成、并符合兩個(gè)大致條件的條目予以快速刪除。其一是條目中包含“面向用戶的交流內(nèi)容”,即其中含有明顯是大語言模型對(duì)用戶提示的回應(yīng)語句,例如“這是你的維基百科條目……”、“截至我最后的訓(xùn)練更新……”以及“作為一個(gè)大語言模型”等。這類語言是我們在識(shí)別 AI 生成社交媒體貼文與科研論文時(shí)早已使用的典型特征。
Lebleu 說,團(tuán)隊(duì)“已見過不少此類特征”,更重要的是,這類語句說明提交者甚至沒有通讀其所貼上的文章內(nèi)容。“如果使用者連這種最基本的問題都沒檢查,那我們可以合理推定,他們根本沒有審閱任何內(nèi)容,僅是照搬貼上,這種條目與白噪音無異。”
第二個(gè)符合快速刪除條件的情形,是條目的引文明顯錯(cuò)誤,這也是大語言模型常見的失誤。這包括所列圖書、文章或論文的外部鏈接根本不存在、無法打開,或者鏈接內(nèi)容與主題完全無關(guān)。
Lebleu 表示,快速刪除是一種“權(quán)宜之計(jì)”,能處理最顯眼的案例,但 AI 問題將持續(xù)存在,因?yàn)槿杂写罅?AI 內(nèi)容未必符合這兩項(xiàng)刪除條件。他補(bǔ)充說,AI 有可能成為一種有益工具,未來或許能對(duì)維基百科發(fā)揮正面影響。
維基百科嚴(yán)打 AI 生成劣質(zhì)條目:一經(jīng)發(fā)現(xiàn)立馬刪除 09:30:01
具身智能成大廠“必爭之地” 京東三個(gè)月連投6家公司 09:27:21
藍(lán)思科技:今年承接智元機(jī)器人全系列多款人形機(jī)器人業(yè)務(wù) 09:30:00
蘋果腦控技術(shù)首次現(xiàn)場演示:ALS 患者僅憑意念操控 iPad 09:28:47
警惕人工智能數(shù)據(jù)污染:0.01%虛假文本可使有害輸出增11.2% 09:27:34
博主對(duì)三星 Galaxy Z Fold7 進(jìn)行 20 萬次折疊測試 09:25:51