成人激色综合天天,中文亚洲av片在线观看,又粗又大又硬毛片免费看,国产aⅴ精品一区二区三区久久,亚洲欧美自偷自拍视频图片

IT領(lǐng)導(dǎo)者應(yīng)該避免GenAI的六個弊端

CIOAge 人工智能
許多企業(yè)將版權(quán)列為一個令人擔(dān)憂的領(lǐng)域(聯(lián)邦貿(mào)易委員會似乎也同意這一點);提交一份看起來像是從競爭對手那里復(fù)制粘貼的商業(yè)計劃可能會有問題,但這并不是你可能遇到的唯一問題。

OpenAI最近宣布的定制ChatGPT版本使每個企業(yè)更容易以更多的方式使用GenAI,但有時最好不要這樣做。大西洋兩岸在幾周內(nèi)舉行了兩次AI安全峰會,對AI的潛在危險提出了質(zhì)疑,但無論是虛構(gòu)的殺手機(jī)器人的科學(xué)威脅,還是關(guān)于哪些AI模型可能受到監(jiān)管的奇怪的具體指導(dǎo)方針,似乎都不會對努力利用現(xiàn)有大量GenAI工具的企業(yè)特別有幫助。

對GenAI最強(qiáng)烈的抱怨來自作家和藝術(shù)家,他們對自己的作品未經(jīng)許可被用來訓(xùn)練大型語言模型感到不滿。11月初,好萊塢長達(dá)數(shù)月的編劇和演員罷工達(dá)成和解,要求制片廠做出讓步,限制AI工具取代人類編劇和表演者的方式,但即使是創(chuàng)意產(chǎn)業(yè)以外的企業(yè)也需要謹(jǐn)慎使用GenAI,這可能會以令人尷尬的方式適得其反,并可能使它們面臨法律訴訟。

許多企業(yè)將版權(quán)列為一個令人擔(dān)憂的領(lǐng)域(聯(lián)邦貿(mào)易委員會似乎也同意這一點);提交一份看起來像是從競爭對手那里復(fù)制粘貼的商業(yè)計劃可能會有問題,但這并不是你可能遇到的唯一問題。

對聲譽的損害

微軟最近與《衛(wèi)報》合作的經(jīng)歷是一個教科書般的例子,說明了不應(yīng)該使用具有創(chuàng)造力的AI?!缎l(wèi)報》聲稱,微軟的AI新聞系統(tǒng)自動生成了一份不敏感的民意調(diào)查,邀請讀者猜測一名女性的死亡,并將其插入新聞故事中間,這導(dǎo)致了這家科技企業(yè)造成了“嚴(yán)重的聲譽損害”。

但這并不是必應(yīng)的AI新聞第一次在敏感新聞故事中添加可疑的民意調(diào)查,同樣的AI工具還創(chuàng)建了其他民意調(diào)查,詢問拒絕殺死一名后來被槍殺的女性是正確還是錯誤的決定,在國家公園發(fā)現(xiàn)的人類遺骸是否得到了正確的識別,在火災(zāi)中失去50所房屋的地區(qū)的人們是否真的需要遵循緊急疏散建議,以及讀者是否會因為為其他兒童燒傷受害者籌集資金而對兩名兒童在火災(zāi)中死亡感到“希望和支持”。

由AI驅(qū)動的必應(yīng)聊天中的廣告還包括惡意軟件的鏈接,微軟的AI工具建議前往渥太華的游客在一家食品銀行用餐,突出顯示包括拜登總統(tǒng)在內(nèi)的一些鮮為人知的網(wǎng)站上關(guān)于政客的假新聞,并嚴(yán)重混淆了一個新聞故事的細(xì)節(jié),以至于它暗示一名女演員襲擊了一名體育教練,而實際上被指控虐待一匹馬的是這名教練。

與之前像ChatGPT這樣的GenAI模型犯下的高調(diào)錯誤不同的是,律師和醫(yī)療專業(yè)人員在很大程度上至少有機(jī)會在繼續(xù)進(jìn)行之前檢查結(jié)果,但這些衛(wèi)報的民意調(diào)查似乎是在微軟的資產(chǎn)上發(fā)布的,有數(shù)百萬訪問者通過自動化系統(tǒng)發(fā)布,無需人工批準(zhǔn)。

微軟稱這項調(diào)查是一個錯誤,并承諾進(jìn)行調(diào)查,但它似乎已經(jīng)明顯違反了該企業(yè)自己關(guān)于負(fù)責(zé)任的AI使用的幾項原則,例如告知人們他們正在與AI系統(tǒng)交互,以及人與AI交互的指導(dǎo)方針,該企業(yè)向Azure OpenAI客戶提供的建議告誡稱,不要制作“任何主題的內(nèi)容”,也不要在“最新、事實準(zhǔn)確的信息至關(guān)重要的情況下”使用它,這可能包括新聞網(wǎng)站。

過度使用AI

更廣泛地說,Azure OpenAI的全面透明度說明有助于警告該服務(wù)可能會產(chǎn)生不適當(dāng)或攻擊性的內(nèi)容,以及不相關(guān)、虛假或歪曲可信數(shù)據(jù)的響應(yīng),他們列出了幾種需要避免的情況——政治競選和高度敏感的事件,在這些情況下,使用或濫用可能會對人生機(jī)會或法律地位產(chǎn)生影響——以及其他需要謹(jǐn)慎的情況,比如醫(yī)療、教育、金融和法律等高風(fēng)險領(lǐng)域,但限制在特定領(lǐng)域的問題不太可能產(chǎn)生更長的、有問題的回答,而不是開放式的、不受限制的問題。

微軟拒絕指出它認(rèn)為GenAI在哪些領(lǐng)域是不合適的,而是提供了一份客戶正在取得成功的領(lǐng)域的清單:創(chuàng)建內(nèi)容、總結(jié)或改進(jìn)語言、代碼生成和語義搜索,但該企業(yè)的一位發(fā)言人確實表示:“在我們的世界里,我們的AI已經(jīng)變得非常強(qiáng)大,它可以做令人驚嘆的事情。然而,至關(guān)重要的是要明白,這項技術(shù)是一段旅程,有很大的增長和發(fā)展空間,這一區(qū)別至關(guān)重要?!?/p>

并不是所有GenAI客戶都明白這一點,由GenAI創(chuàng)造的令人困惑和糟糕的內(nèi)容已經(jīng)出現(xiàn)在商業(yè)環(huán)境中,會議傳記、博客文章和幻燈片可能聽起來令人印象深刻,但被本應(yīng)更了解情況的經(jīng)理簽署是沒有意義的。越來越多的專業(yè)作家和安全教育工作者提交了此類內(nèi)容,并輔之以AI圖像,比如手指數(shù)量驚人的人。這種空洞的胡言亂語可能會變得令人不安地常見,企業(yè)有責(zé)任保持警惕,因為聲譽岌岌可危。

麻木不仁的評論在內(nèi)部也同樣不合適,民意調(diào)查和測驗讓冗長的會議和團(tuán)隊聊天變得活躍起來,讓富有創(chuàng)造力的AI根據(jù)人們一直在談?wù)摰臇|西來創(chuàng)造它們是很有誘惑力的,例如,如果有人分享了家庭疾病或丟失寵物的細(xì)節(jié),這可能會出現(xiàn)嚴(yán)重的錯誤。

行業(yè)情報平臺GlobalData負(fù)責(zé)顛覆性技術(shù)的副項目經(jīng)理Saurabh Daga指出:“GenAI通常不適合同理心、道德判斷和對人類細(xì)微差別的深入理解至關(guān)重要的環(huán)境?!彼谐龅拿舾蓄I(lǐng)域清單類似于微軟的指導(dǎo)方針:“高風(fēng)險的決策可能會產(chǎn)生重大的法律、財務(wù)或健康相關(guān)后果,可能不適合AI?!?/p>

在多模式模型上做了更多的工作之前,重要的是要謹(jǐn)慎對待在任何情況下混合文本和圖像的GenAI,因為錯誤的標(biāo)題可能會將完全可以接受的圖片變成令人反感的東西,而且圖像生成模型很容易假設(shè)所有護(hù)士都是女性,所有CEO都是男性。

戴爾技術(shù)企業(yè)高級AI戰(zhàn)略副總裁馬特·貝克警告說:“尤其是GenAI正在放大以前存在但沒有得到全心全意解決的問題?!贝鳡柤夹g(shù)企業(yè)提供服務(wù),幫助客戶使用Microsoft 365 Copilot或Llama2等開放獲取模型構(gòu)建AI系統(tǒng)?!耙粤鞒毯凸ぷ髁鞒虨槔?,在人力資源和招聘等領(lǐng)域,算法偏差可能成為一個因素。企業(yè)需要誠實地審視他們的衛(wèi)生狀況、優(yōu)先事項和數(shù)據(jù)敏感性,以確保他們將GenAI工具插入到他們獲得最大回報和將風(fēng)險降至最低的領(lǐng)域?!?/p>

假設(shè)AI總是正確的

盡管GenAI工具令人印象深刻,但它們本質(zhì)上是概率論的,這意味著他們經(jīng)常會犯錯,危險在于他們產(chǎn)生的東西可能是不準(zhǔn)確的、不公平的或冒犯的——但措辭如此自信和令人信服,以至于它溜走了。

關(guān)鍵是不要期待一個你可以立即使用的結(jié)果,并警惕地認(rèn)識到GenAI可能是有用的錯誤的方式,把它當(dāng)作一場頭腦風(fēng)暴式的討論,激發(fā)新的想法,而不是什么能為你帶來完美想法的東西。

這就是為什么微軟的大多數(shù)GenAI工具都采用了Copilot,而不是Autopilot,首席執(zhí)行官薩蒂亞·納德拉在今年夏天的Inspire大會上表示:“這是為了讓人類進(jìn)入循環(huán),并以這樣一種方式設(shè)計它,即人類始終控制著一名強(qiáng)大的副駕駛,并幫助他們完成每項任務(wù)。”學(xué)會嘗試提示以獲得更好的結(jié)果是采用GenAI的關(guān)鍵部分,因此像Copilot Lab這樣的工具可以幫助員工獲得這些技能。

同樣,與其試圖自動化流程,不如為你自己的GenAI工具創(chuàng)建工作流,以鼓勵員工試驗和評估AI產(chǎn)生的結(jié)果。記住,審查AI建議的人將擁有關(guān)于情況的哪些信息 - 以及他們有什么動機(jī)來審查結(jié)果并檢查任何引用的來源,而不是通過接受第一個選項來節(jié)省時間,而不是在沒有確保其準(zhǔn)確性和適當(dāng)性的情況下接受第一個選項。

用戶需要足夠好地理解他們從GenAI那里接受的建議和決定,以便知道后果可能是什么,并向其他人證明這些建議和決定是合理的。英國信息專員辦公室警告說:“如果你的企業(yè)不解釋AI輔助的決定,它可能面臨監(jiān)管行動、聲譽損害和公眾的脫離?!?/p>

每次提供多種選擇,并展示如何解釋建議,以及使用提示來指示大語言模型解釋為什么它會給出特定的回答,這都會有所幫助。除了讓富有創(chuàng)造力的AI引用關(guān)鍵信息的來源外,還應(yīng)考慮如何突出顯示需要仔細(xì)檢查的重要元素,如日期、統(tǒng)計數(shù)據(jù)、政策或所依賴的先例。

但歸根結(jié)底,這是為了建立一種文化,在這種文化中,GenAI被視為一種有用的工具,仍然需要得到驗證,而不是取代人類的創(chuàng)造力或判斷力。

Daga指出:“GenAI或任何其他形式的AI應(yīng)該被用來增強(qiáng)人類的決策能力,而不是在其局限性可能造成傷害的環(huán)境中取代它。人類審查員應(yīng)該接受培訓(xùn),對AI的輸出進(jìn)行批判性評估,而不僅僅是表面上的接受?!?/p>

除了一個包括人工審查、鼓勵對AI建議進(jìn)行實驗和徹底評估的過程之外,還需要設(shè)置護(hù)欄,以阻止任務(wù)在不合適的時候完全自動化?!袄?,AI可能會生成企業(yè)的新聞發(fā)布會,但只有人類編輯才能批準(zhǔn)與選定的記者和出版物分享內(nèi)容?!八a(bǔ)充道。

無論是探索新的代碼庫、填充樣板代碼、自動完成函數(shù),還是生成單元測試,GenAI當(dāng)然也可以使開發(fā)人員更有效率,你可以利用這種額外的生產(chǎn)力,但仍然可以決定在沒有人工審查的情況下不會將代碼發(fā)布到生產(chǎn)環(huán)境中。

企業(yè)對自己選擇的后果負(fù)責(zé),包括在不合適的領(lǐng)域部署AI,科羅拉多州咨詢企業(yè)Sagable的全球首席技術(shù)官兼創(chuàng)始人安迪·曼表示。“客戶不會僅僅因為‘這是我們AI的錯’就讓你擺脫數(shù)據(jù)泄露的責(zé)任。”

隱藏的AI

確保負(fù)責(zé)任地使用該系統(tǒng)至關(guān)重要,無論是由員工還是客戶使用,而透明度是其中的重要組成部分。令人尷尬的是,許多出版物使用AI生成的內(nèi)容,這些內(nèi)容很容易被發(fā)現(xiàn),因為它的質(zhì)量很差,但你應(yīng)該清楚,即使是高質(zhì)量的內(nèi)容也是由AI系統(tǒng)產(chǎn)生的,無論是內(nèi)部會議摘要、營銷信息,還是聊天機(jī)器人的回應(yīng)。為聊天機(jī)器人等自動化系統(tǒng)提供“出口”,允許用戶將問題上報給真人。

Daga說:“客戶應(yīng)該可以選擇退出與GenAI的互動,特別是在敏感領(lǐng)域。”

假設(shè)AI可以解決所有問題

隨著GenAI在商業(yè)中的使用增加,人們也意識到,人們需要使用自己的判斷來判斷AI所暗示的東西。在去年的DevOps自動化狀況報告中,10名IT員工中有8人這樣認(rèn)為,在2023年的DevOps自動化和AI研究中,這一比例高達(dá)90%多一點。

Mann說,這種謹(jǐn)慎是合理的,特別是在可用于生成可預(yù)測、期望和可驗證的輸出的特定領(lǐng)域培訓(xùn)數(shù)據(jù)有限的情況下,例如在IT運營中,因為培訓(xùn)數(shù)據(jù)不足,它容易產(chǎn)生不準(zhǔn)確的結(jié)果。

他警告說:“對于任何處理新問題和未知原因的用例來說,缺少或沒有記錄的知識,GenAI的意義都會降低。如果未公開的人類部落知識是你唯一的潛在投入,那么訓(xùn)練大語言模型是不可能的。”

不過,他確實看到了將GenAI作為助手的機(jī)會。他說:“它可以成為一名顧問或積極的專家,通過訓(xùn)練引擎來了解跨已定義學(xué)科和知識存儲的‘已知良好’IT操作是什么樣子,并識別已知問題、診斷已知原因、確定已知的低效,并以已知的補(bǔ)救措施進(jìn)行響應(yīng)。”但是,盡管一些看似新的IT問題可以通過熟悉的流程和解決方案來解決,但事先還不清楚哪些是新的。

“我們知道AI世代幾乎從來不會說自己不知道什么,相反,當(dāng)你試圖讓它解決‘未知未知’時,它會拋出誤導(dǎo)性的、虛假的、錯誤的、甚至惡意的結(jié)果?!甭髡f。

為人類創(chuàng)造更多的工作

當(dāng)然,GenAI產(chǎn)生的內(nèi)容可能會有所幫助,但因為它很容易創(chuàng)建,它最終也會為那些需要審查它并根據(jù)它采取行動的人做更多的工作。

小說雜志報告說,收到了如此多低質(zhì)量的AI編寫的故事,以至于這實際上是一次拒絕服務(wù)攻擊。出版商一直在試驗使用AI來復(fù)制編輯手稿,但作家和編輯都報告說,建議的編輯往往沒有幫助、無關(guān),或者只是純粹的錯誤——首先,會遇到技術(shù)術(shù)語、行文風(fēng)格、復(fù)雜的句子結(jié)構(gòu)以及正確但不尋常的用字方面的問題。當(dāng)你評估GenAI實際上能夠在哪些領(lǐng)域做出貢獻(xiàn)時,要誠實。

采用任何AI工具的一個關(guān)鍵部分是有一個處理錯誤的過程,而不是每次單獨糾正它們。不要假設(shè)GenAI會從錯誤中學(xué)習(xí),或者每次都會給你相同的結(jié)果。如果這很重要,你需要使用即時工程和過濾器來約束最重要領(lǐng)域的結(jié)果。

也要準(zhǔn)備好在你沒有計劃的領(lǐng)域和過程中使用GenAI,在那里它可能不那么準(zhǔn)確。再說一次,透明度是關(guān)鍵。員工需要知道企業(yè)關(guān)于他們何時可以使用GenAI以及如何披露他們正在使用它的政策。你可能還想像在企業(yè)聊天系統(tǒng)中一樣,在審計和eDiscovery中包含GenAI使用。

企業(yè)可能需要更緊迫地開始制定這些政策。在TECHnanalysis Research于2023年春季調(diào)查的1000家美國企業(yè)中,88%的企業(yè)已經(jīng)在使用GenAI,但在這些早期采用者中,只有7%有正式的政策。

在IDC最近一項關(guān)于AI機(jī)會的研究中,超過25%的商業(yè)領(lǐng)袖表示,缺乏AI治理和風(fēng)險管理是實施和擴(kuò)展這項技術(shù)的挑戰(zhàn)。最初的擔(dān)憂是企業(yè)數(shù)據(jù)的保密性,但聲譽損害也應(yīng)該是優(yōu)先事項。此外,超過一半的人稱缺乏熟練工人是他們最大的障礙,這通常指的是開發(fā)人員和數(shù)據(jù)工程師,但技術(shù)含量較低的商業(yè)用戶也將需要技能,以仔細(xì)構(gòu)建他們向AI工具提出的問題,并評估和驗證結(jié)果。

責(zé)任編輯:姜華 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2020-04-20 10:10:20

IT領(lǐng)導(dǎo)者首席信息官CIO

2022-08-30 13:48:28

IT領(lǐng)導(dǎo)者放權(quán)

2022-09-06 08:31:30

CIO培訓(xùn)IT

2021-07-16 10:27:07

ITIT領(lǐng)導(dǎo)IT管理

2023-11-22 11:30:03

首席信息官IT管理

2023-07-03 10:46:20

CIOIT領(lǐng)導(dǎo)者

2022-09-09 08:48:13

ITCIO流程

2024-08-02 17:29:42

2022-05-17 10:14:06

CIOIT領(lǐng)導(dǎo)者

2022-11-18 10:34:35

IT領(lǐng)導(dǎo)者軟技能

2022-01-14 10:46:57

ITIT領(lǐng)導(dǎo)IT管理

2023-12-08 13:43:16

2021-12-13 11:48:53

IT領(lǐng)導(dǎo)者CIO技術(shù)

2021-10-09 10:08:41

IT領(lǐng)導(dǎo)者任務(wù)首席信息官

2024-04-07 14:11:42

ITGenAI

2023-12-01 15:38:22

IT領(lǐng)導(dǎo)者數(shù)字化轉(zhuǎn)型

2024-08-13 14:56:41

2023-02-08 17:00:07

IF 語句技巧代碼

2018-03-17 09:04:35

2022-10-09 10:35:31

IT領(lǐng)導(dǎo)者投資新技術(shù)

51CTO技術(shù)棧公眾號