應用

技術

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

讓AI走進工業(yè)應用的最大障礙是什么?

2022-11-24 09:07 控制工程網(wǎng)

導讀:人工智能(AI)、機器學習(ML)、貝葉斯優(yōu)化、大數(shù)據(jù)和其他現(xiàn)代技術可以提高我們建模、理解和優(yōu)化流程的能力;并且這些技術可以使行業(yè)走向操作和維護的自主性。

我相信人工智能(AI)、機器學習(ML)、貝葉斯優(yōu)化、大數(shù)據(jù)和其他現(xiàn)代技術可以提高我們建模、理解和優(yōu)化流程的能力;并且這些技術可以使行業(yè)走向操作和維護的自主性。這些是工業(yè) 4.0、工業(yè)物聯(lián)網(wǎng) (IIoT)、智能制造、智能儀器儀表、資產模型和數(shù)字孿生等流行語的核心要素。

被供應商推廣的AI解決方案,也許需要克服過程所有者的謹慎,但也會產生一種炒作,甚至可能在潛在用戶中造成懷疑。我們如何讓人們接受并實現(xiàn)適當?shù)膽茫课覀內绾渭涌爝M展?也許這篇文章可以提供幫助。

揭開算法的神秘面紗

AI是一組確定性算法,用于使用當今支持計算機的技術對龐大的數(shù)據(jù)庫進行建模或搜索。我們的個人設備接受語音命令,并自動更正我們的拼寫和語法。它們"傾聽"有聲的問題并提供"答案",例如"我發(fā)現(xiàn)了這個"。但聆聽不是類似人類的理解,它只是聲波的算法翻譯。響應只是與網(wǎng)站的連接,其中包含問題中關鍵字的文本翻譯的可能答案。三十年前,這一切都是科幻小說。

雖然AI看起來很了不起,但它不是人類類型的智力。它不是一個有需求來驅動其獨立行動的存在。顯然就目前而言,它沒有可能破壞人類的議程。盡管它的名字,開發(fā)者一直在追求的愿景,以及虛構的創(chuàng)造力,AI并不是一種獨立的智力。

ML不像人類那樣"學習"。它只是一組支持計算機的技術,用于查找關系(如主成分分析)或調整模型系數(shù)以使模型與數(shù)據(jù)最匹配(如回歸)。人們可以回到過去,將回歸呈現(xiàn)為"學習",并使不理解回歸的人感到困惑。ML并不像人類那樣學習或理解。

在某種程度上,那些探索和開發(fā)AI的人采用的科幻術語、神秘感和創(chuàng)作者的熱情,在潛在用戶之間造成了誤解。一個是擔心如果讓這個"大腦"負責,可能會做出什么。第二個是期望AI將神奇地解決一切。然而,就像過去支持過程設計者和操作員的任何建模和分析進步一樣,AI只是今天支持計算機的一套輔助工具,用于人類對過程的理解、控制和改進。

在 1970 年代,我的汽車上的巡航控制僅按比例進行,在上坡或下坡時會留下穩(wěn)態(tài)偏移。到了80 年代,他們添加了一個整體功能來消除該偏移?,F(xiàn)在,我的汽車制造商稱其巡航控制產品為"智能控制"。當它檢測到前方有車輛時,它會降低速度以保持安全距離,當我移動到超車道時,它會返回到設定點速度。這些進步并不是什么魔法。然而,今天的時尚是將先進的技術功能稱為智能。

對AI的合理期望

我相信,AI可以通過支持人類控制、優(yōu)化、安全操作和更好地了解我們使用的過程來提供很多東西。我還認為,我們需要對AI能做什么有合理的期望,并在實施AI時像給予新手人類員工自主權一樣謹慎。

在于用戶和供應商們探討AI應用和實施過程中遇到的挑戰(zhàn)時,通常都涉及下面兩個關鍵問題:1)產生信任;2)應用設計。

誰來負責:根據(jù)我的經(jīng)驗,過程工業(yè)中計算機自主性的主要障礙之一是管理者負責。他們個人要對不良事件負責,例如環(huán)境違規(guī)、人員傷害或損失。令人擔憂的問題包括安全、遵守合同和法規(guī)、應對意外結果以及在可能的威脅開始出現(xiàn)時立即恢復安全運營。

管理者是風險規(guī)避者,但總有意想不到的事情。管理者通常不會將自己的職業(yè)生涯交給新手員工,因為他們最初的解決方案往往是短視的。我認為,與他們對新手的信任相比,管理層將不太相信AI會包含全面的態(tài)勢感知。

應用設計:當我們設計一個新的流程、系統(tǒng)或方法時,我們通常不會在第一次就把它做好。撰寫段落和報告或策劃活動也是如此。在我們思考的過程中,我們會微調改進,納入最初沒有考慮的新功能,最終得到一個可行的設計。新手就更不太可能在第一次嘗試時就把它做得很好。

根據(jù)我的經(jīng)驗,在設計一個AI應用時也是如此。第一次嘗試是簡單化的,而且常常假定AI有一種它沒有的能力。但其實AI需要大量的人類指導。你需要選擇給它什么數(shù)據(jù),您需要選擇要提供的數(shù)據(jù),對數(shù)據(jù)中可以找到的內容以及理解任何輸出決策的完整程度有合理的期望。

實施AI的6個建議

無論你是供應商還是試圖說服管理層嘗試AI的潛在用戶,我都建議先仔細考慮清楚下面這個清單,以便于讓AI應用的進展更順利:

1. 解釋它是如何工作的。讓潛在用戶和管理者感到安全。不要把AI塑造成有知覺的、智慧的或神秘的。不要使用計算機和數(shù)據(jù)科學家的語言或類似人類的歸因。不要通過將客戶的注意力轉移到它有多么偉大或容易使用來掩蓋真實的算法機制。解釋該算法。包括它不能做什么,能做什么。確保對方真正理解。

2. AI包括許多先進的建模和優(yōu)化算法。它們比傳統(tǒng)方法更好嗎?相對于其成本(數(shù)據(jù)采集、培訓、軟件),它的好處(功能、準確性、速度、易懂性)是否足以證明其使用的合理性?不要因為它們被吹捧得更好,或因為是新的時尚而跟風購買。潛在的用戶應該測試一下,看它是否對目標應用更好。

3. 供應商應該在面向用戶的應用上提供基準測試,用面向用戶的良好指標,而不是用學術示例。在潛在用戶的價值觀中建立可信度,而不是在發(fā)明者的科學期刊界建立可信度。

4. 使應用與技術相適應。"對于一個有錘子的人來說,一切看起來都像釘子"(這是20世紀60年代的一句格言)。如果你探索的東西很好,但在錯誤的應用上,或在不完整的能力下實施它,那么結果也將是失敗的。正如80年代的神經(jīng)網(wǎng)絡所發(fā)生的那樣,好的技術可能也會贏得 "它不起作用 "的聲譽,并且需要很長的時間才能從這樣的名聲中恢復過來。不要因為讓AI被誤用而破壞其未來的前景。

5. 循循漸進地應用 AI。最初不要提議給AI以自主權,而是讓它報告和建議做什么。如果操作者同意,就讓他們實施建議。讓人類員工了解情況,逐步將綜合的問題納入到最初的解決方案中。在漸進的步驟中建立信心。

6. 隨著人類對過程和自動化應用理解的不斷發(fā)展,過程管理者可以增加或調整對AI自主性的考慮。因此,AI供應商需要讓人類員工更容易地將AI從最初的短視觀點調整為對所有新問題的更全面的看法--以確定真正的、全面的、多層次的目標。

AI在過程工業(yè)中的機遇

也許有一天,AI將能夠自主診斷和控制現(xiàn)實世界的操作,包括在汽車、制造和醫(yī)藥行業(yè)等應用。但是,以下是我認為在過程工業(yè)應用中對AI實用的愿望清單:

在所有應用程序中使用相同的模型當然會很好。我們使用模型進行設計、訓練、控制和優(yōu)化,如果有一個通用的模型會更方便。

如果AI能夠自主設計和調整模型以匹配目標過程那就太好了,因為過程屬性會隨時間變化。這必然包括數(shù)據(jù)的自主預處理和后處理驗證。

在過程控制中,我們希望優(yōu)化經(jīng)濟路徑,而不僅僅是設定值。這可能包括控制器的自動調整,不僅要最小化平方偏差,還要根據(jù)安全和產品規(guī)格限制將瞬態(tài)的運營成本降至最低。

如果語音命令可以激活過程,并且語音筆記可以轉換為文本并放置在操作員的日志中,那就太好了。

AI需要處理隨機數(shù)據(jù)。但工業(yè)過程不是確定性的;它們很吵,容易受到干擾。我們不希望虛幻的"最佳"誤導AI決策或輸出。AI還需要在約束和不連續(xù)性范圍內做出全局決策,而不會陷入局部陷阱。

通過預測惡化需要修復的時間來支持預測性維護。這可能是為了機器維護或調整優(yōu)化、過程分析、推理測量或控制中的模型。

將人類對過程行為的認知的語言規(guī)則轉換成代碼,自主驗證(或拒絕)和改進規(guī)則,然后將驗證和改進的規(guī)則以人類語言呈現(xiàn)給過程管理者,幫助他們更好地理解和管理他們的過程。