0
本文作者: 李秀琴 | 2017-11-04 23:35 |
雷鋒網(wǎng)按:隨著越來越多的新聞媒體開始采用AI進行新聞報道,AI和自動化技術(shù)的日益增強正在改變整個新聞業(yè)。那么對于正在陷入困境的新聞業(yè)來說,AI究竟是一個急迫需要的生命線,還是新聞業(yè)生存的下一個致命威脅?
日前,數(shù)字新聞中心( the Tow Center for Digital Journalism)和布朗媒體創(chuàng)新研究所(the Brown Institute for Media Innovation)聯(lián)合技術(shù)專家和記者召開了政策交流論壇,一起討論了AI如何影響新聞媒體,以及如何將AI更好的應(yīng)用于新聞領(lǐng)域這一議題。在本次報告中,他們著重討論了這四個問題:
記者如何利用AI來輔助報道?
AI可以替代哪些新聞室角色?
新聞機構(gòu)還未應(yīng)用AI技術(shù)的領(lǐng)域有哪些?
AI最終將成為新聞報道不可或缺的一部分嗎?
議題一:AI在新聞業(yè)的應(yīng)用
如大家所了解,每個新聞編輯室都有一套獨特的AI方法。經(jīng)過幾次案例研究,AI在新聞機構(gòu)中貢獻最大的活動共有以下三類:
在數(shù)據(jù)量很大或很復(fù)雜的情況下,AI可以作為一種突破性工具,排除人身認證的外部或特殊情況--這個角色完全適用于標(biāo)準(zhǔn)的新聞編輯室的流程。
識別趨勢(或偏離趨勢):AI的大量計算能力可以幫助提供數(shù)據(jù)聚合的表征,或有可能按照時間、地理或人口統(tǒng)計分組。此外,它還能快速識別離群數(shù)據(jù)。
檢查AI或計算的應(yīng)用程序可以作為故事本身的主題:算法是由人類構(gòu)建的,所以不可避免帶有人類的偏見——如何通過這些工具找到復(fù)雜的思想?當(dāng)這些工具被國家或城市具體采納并運用時,又會發(fā)生哪些不可預(yù)知的情況?
1、幾大具體案例
AI可以通過以下幾種方法來增強記者的工作:分類文件;識別數(shù)據(jù)中的異常值。當(dāng)然,在討論的過程中經(jīng)驗豐富的人類經(jīng)常會運用真實新聞來做判斷,以作為新聞編輯室工作的重要組成部分。
雖然有許多有據(jù)可查的由AI編寫的新聞故事,例如體育賽事的總結(jié)、公司財報的發(fā)布,甚至地震等數(shù)據(jù)模式,但很少有與會者認為記者的工作會完全被機器或算法取代。只有在人類的操縱和驗證結(jié)果的情況下,AI才能更好的幫助自由作家持續(xù)不斷地重寫相同的故事,并處理更多的原始報告。
最近的一些案例,比如,《洛杉磯時報》記者使用分類器檢測LAPD(洛杉磯市警局)降級犯罪分類的實例,取得了顯著成功;亞特蘭大憲法機構(gòu)對醫(yī)生實施的性虐待的調(diào)查;路透社的主題建模,以尋求最高法院上訪問的權(quán)利中心;ProPublica(美國一家非政府、非盈利的網(wǎng)絡(luò)新聞機構(gòu))日前聯(lián)合谷歌推出一個基于機器學(xué)習(xí)的工具——仇恨犯罪新聞紀(jì)錄索引。它通過對大量新聞文章的分析,建立起一個全國范圍內(nèi)的能預(yù)測仇恨犯罪發(fā)生地的預(yù)警圖;《紐約時報》在報道總統(tǒng)特朗普的就職典禮新聞事件中,使用了人臉識別技術(shù)以獲取觀眾席的情況信息。
對于一些記者來說,他們可能會在GitHub抓取示例代碼,并將其應(yīng)用于新聞報道中。但是,除非這名記者對這些工具或技術(shù)有很好地了解,不然可能會出現(xiàn)不法行為的風(fēng)險。
2、記者在使用數(shù)據(jù)時應(yīng)注意陷阱
記者在使用從社交媒體到政府機構(gòu)的數(shù)據(jù)時,應(yīng)小心陷阱。他們必須小心評估這些新型信息來源的可靠性,特別是在涉及AI的情況下。比如,使用Twitter作為社交媒體平臺的記者,必須謹慎使用這些數(shù)據(jù)來分析社會行為。
3、出版商的挑戰(zhàn):包括大型和小型新聞機構(gòu)
所有這些新工具,新聞機構(gòu)都有責(zé)任和義務(wù)訓(xùn)練記者、編輯以及開發(fā)人員如何正確的使用它們。雖然像《紐約時報》這種大型新聞機構(gòu),資金可能不是問題。但對于資源較少的小型新聞機構(gòu)來說,這將是一個不小的挑戰(zhàn)。
新聞媒體的領(lǐng)導(dǎo)人可能面臨的一個決定在于,如何與他人建立AI工具使用上的合作。因為使用復(fù)雜數(shù)據(jù)集和自定義算法進行的調(diào)查分析和團隊建設(shè)可能需要幾個月的時間,而這并不是所有的新聞機構(gòu)都能獨自完成的。
與學(xué)術(shù)機構(gòu)和研究人員合作可以成為新聞機構(gòu)在新聞編輯室中開始使用AI工具的好方法。不過,新聞編輯室和學(xué)術(shù)實驗室的文化差異很大,二者在創(chuàng)造AI工具的目標(biāo)上可能會存在分歧。
議題二:AI技術(shù)如何適應(yīng)新聞報道規(guī)則?
AI技術(shù)如何適應(yīng)新聞管道?如前所述,AI在報道、內(nèi)容創(chuàng)建、分發(fā)和受眾互動起的作用越來越大。比如,近日,開發(fā)眾包、頭腦風(fēng)暴和事實核查工具正被用來收集數(shù)據(jù)信息,特別是用于構(gòu)建相關(guān)數(shù)據(jù)。在當(dāng)代的新聞編輯室中,自動化已成為競爭的關(guān)鍵工具,不僅是為了獲取客戶關(guān)注,還用于和大型平臺的競爭,如Netflix、Facebook和亞馬遜。
1、自動化寫作和個性化推介
自動化可以在短時間內(nèi)處理大量的任務(wù),例如在幾分鐘甚至幾秒鐘內(nèi)分析和匯總大量的數(shù)據(jù),從而盡可能的減少記者的負擔(dān)。另一方面,許多社交媒體平臺和網(wǎng)絡(luò)公司也都實證了個性化推送是捕捉注意力的一種有力工具。如,Netflix使用行為數(shù)據(jù)為觀眾提供觀看建議;亞馬遜的成功部分原因在于它為購物體驗提供數(shù)據(jù)驅(qū)動的個性化設(shè)計。
1)案例一:Wibbitz
Wibbitz公司和《今日美國》報的體育報道部門開始合作,該公司可以把媒體記者寫作的文字報道在短短幾秒鐘內(nèi)制作出短視頻。Wibbitz公司最核心的AI技術(shù)是“文本轉(zhuǎn)換視頻技術(shù)”(Text-to-Video Technology)。一開始,Wibbitz的AI技術(shù)會分析一個故事文本,然后在這個文字報道的基礎(chǔ)上形成一個摘要,緊接著,AI將這個文本摘要轉(zhuǎn)換成一個伴隨有照片、圖形及其它更多媒介形式的帶有畫外音的短視頻。實際上,整個制作過程就是利用AI驅(qū)動軟件,將一個文字報道內(nèi)容壓縮為一個故事腳本,然后將一系列圖像或視頻片段串接在一起,并添加一些畫外音。
2)案例二:BuzzFeed
BuzzFeed是另一個進入AI領(lǐng)域的知名媒體。在2016年美國大選期間,BuzzFeed的“新聞開放實驗室”(Open Labs for Journalism)開發(fā)了一個新聞機器人(Buzzbot),這個新聞機器人可以搜集共和黨全國代表大會中來自不同消息來源的新聞信息。AI驅(qū)動的新聞聚合器可以追蹤實時選舉結(jié)果和投票報道,這樣媒體記者就不用通過人力來完成這些工作。有了新聞機器人,BuzzFeed的記者可以集中精力去報道更加復(fù)雜和場景化的新聞故事,而這類新聞是機器學(xué)習(xí)解決方案技術(shù),自身無法生產(chǎn)出來的。
3)案例三:路透社
路透社為了解決真假信息辨識的問題,他們使用新的新聞追蹤系統(tǒng)叫做News Tracer,針對每天5億則Twitter信息進行演算,從假新聞、不合理的新聞、廣告、雜音中找到真的新聞事件,有了算法的輔助,記者可以從社交媒體眾多信息中脫身,把更重要的時間用來挖掘故事。News Tracer 與其他監(jiān)控工具不同之處在于其模仿的是記者的思考方式,程序人員在這套演算法中植入 40 個評量指標(biāo),諸如原始貼文者的地點與身份、新聞的傳播方式等,建立一個新聞可信度評分,該系統(tǒng)還會針對記者確定可靠的新聞進行來源交叉檢查,并識別其他潛在的消息來源。
4)案例四:美聯(lián)社
美聯(lián)社是最早采用AI技術(shù)的媒體組織之一。早在2014年,美聯(lián)社與美國“自動化洞察”(Automated Insights)公司合作——該公司開發(fā)出了自動化寫稿程序Wordsmith,它當(dāng)時是世界上唯一的公共自然語言生成平臺——來程式化地寫作許多上市公司公開發(fā)布的季度收入報告相關(guān)新聞報道。在將人工智能技術(shù)用于處理季度收入報告之前,美聯(lián)社新聞記者每季度只能創(chuàng)作幾百個新聞故事,結(jié)果導(dǎo)致數(shù)千個公司的收入報告,沒有被寫作報道。在使用Wordsmith自動化寫稿程序之后,美聯(lián)社有關(guān)公司收入的新聞報道數(shù)量增加了12倍。
2、評論系統(tǒng)和觀眾參與
今年6月,《紐約時報》與谷歌母公司Alphabet旗下技術(shù)孵化器Jigsaw合作,運用后者的Perspective機器學(xué)習(xí)技術(shù)來過濾新聞報道的評論數(shù)量。據(jù)雷鋒網(wǎng)了解,此前《紐約時報》每天安排14名審查員處理約12000條評論,每篇文章下方的評論有20%是打開的。運用該AI工具后,其可以把有害的評論和健康正確的評論阻隔開來,不僅可以減少修正評論人員的25%的工作量,還能將文章下方的評論取的打開率提升至80%。
《紐約時報》想利用該AI工具,建立一個平臺,以便審查員和讀者進行更加深入的交互。不過,這其中仍然存在一大挑戰(zhàn),即如何建立共同點,且尊重不同的觀點,讓新聞報道和讀者的區(qū)域觀點保持一致。通過這一機器學(xué)習(xí)工具,審查員不僅可以提高處理評論的速度,還可以通過預(yù)測模型輕松組合相似的評論。
議題三:算法與倫理:究竟該怪人類還是算法?
在新聞編輯室使用AI工具,如機器學(xué)習(xí)、自然語言處理、人臉識別和機器視覺,這個過程不可避免會帶上人類倫理的思考痕跡。這里牽扯到三個方面的內(nèi)容。
1、透明度和責(zé)任感
由于AI在新聞工作中可以扮演很多角色,因此在解釋何時何地以及如何使用AI時,更應(yīng)該謹慎解釋。如涉及聊天機器人和用戶的互動時,如果由AI 來驅(qū)動,這個機器人又該如何向觀眾解釋自己的運行原理?觀眾需要知道故事的構(gòu)建過程,以及機器在創(chuàng)建過程做了哪些選擇?當(dāng)涉及AI時,最終應(yīng)該追究誰的錯誤?如何解釋由人類創(chuàng)建的算法引起的錯誤?究竟該怪人類還是算法?
據(jù)ProPublica的研究表明,算法偏差在數(shù)學(xué)上是不可避免的。即便如此,新聞工作者應(yīng)該對這些AI系統(tǒng)負責(zé),并鼓勵在算法系統(tǒng)的構(gòu)建流程中建立問責(zé)制。
2、編輯性決定和偏見
算法在新聞策劃中的作用越來越普遍,這些代表編輯性決策的算法需要用人類的方式來編寫。以聊天機器人為例,計算機就像人類一樣,如果他們不了解內(nèi)容,就不能進行對話。機器人能夠談?wù)摰奈ㄒ活I(lǐng)域就是我們可以為該會話語境構(gòu)建模型。
此外,為了讓去偏見概念更加復(fù)雜化,通常會讓數(shù)據(jù)更具中性。一些研究表明,有許多類型的機器學(xué)習(xí),都是用來“監(jiān)督學(xué)習(xí)”。算法無法重現(xiàn)人類的心理模型,但能重構(gòu)因果關(guān)系。
3、數(shù)據(jù)的倫理使用
數(shù)據(jù)的倫理使用是每個記者需要面對的根本問題,同樣的原則也適用于處理大量數(shù)據(jù)的公司。雖然有許多社交媒體平臺會向記者提供數(shù)據(jù),但數(shù)據(jù)發(fā)布商和平臺之間關(guān)于開放數(shù)據(jù)獲取的關(guān)系依然復(fù)雜。
許多算法的性質(zhì)更像是一個“黑盒”,其掩蓋了對軟件正在做的決定的批判性認識。所以,記者需要盡可能的在研究和報道中使用這種批判性態(tài)度。
七大研究結(jié)論
如前所述,經(jīng)過這次研究,關(guān)于AI究竟是對新聞業(yè)是威脅還是助力,我們可得到以下7大發(fā)現(xiàn)。
1、AI工具可以幫助記者講述或報道此前不切實際或技術(shù)上無法實現(xiàn)的新故事。雖然AI可能會轉(zhuǎn)變新聞業(yè),但它會增強而不是取代記者的工作。事實上,為了正確使用AI技術(shù),人類必須隨時保持機敏狀態(tài)。
2、設(shè)計AI的技術(shù)人員和使用AI技術(shù)的記者之間存在知識差距和溝通差距,這樣可能導(dǎo)致新聞事件的不正之風(fēng)。
3、讀者在如何使用AI工具進行分析、識別模式以及報告故事中的發(fā)現(xiàn)時,應(yīng)該得到一種透明的方法。
4、雖然AI和數(shù)據(jù)的交互可以為讀者參與、獲利和個性化新聞推送提供新的機會,但是在創(chuàng)建回聲室和繼續(xù)致力于新聞公共服務(wù)使命之間找到平衡存在挑戰(zhàn)。
5、數(shù)據(jù)的倫理使用和披露(如何收集,存儲,使用,分析和分享用戶信息)是記者需要面對的一個根本問題。
6、AI有潛力增強記者的工作,但在開放數(shù)據(jù)獲取上依然存在挑戰(zhàn)。
7、AI是不可以預(yù)知的。我們不能自信地預(yù)測哪里會出現(xiàn)最大的問題,所以技術(shù)專家和記者需保持警惕,以確保AI系統(tǒng)的準(zhǔn)確性。
雷鋒網(wǎng)結(jié)語
照目前的情況來看,AI對新聞業(yè)的助力遠大于威脅。未來采用AI輔助報道將成為各新聞機構(gòu)在競爭賽道上的一大趨勢。只是,在應(yīng)用AI的道路上,人類還應(yīng)盡快厘清算法倫理的追責(zé)問題,以便提前清除后患。
注:報告原文來自哥倫比亞大學(xué)新聞學(xué)院,由Mark Hansen、Meritxell Roca-Sales、 Jon Keegan和George King四位共同編寫,雷鋒網(wǎng)對整篇報告進行了重點編譯和解讀。報告原文可關(guān)注“雷鋒網(wǎng)”公眾號獲得。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。