核心提示:2023 年,我們將開始看到一種提供數據、測試和監控結果的方法,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想
2023 年,我們將開始看到一種提供數據、測試和監控結果的方法,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想的機器人技術的三個基本定律一樣。Macami.ai 的聯合創始人兼首席執行官 Carlos Martin 強調,隨著我們在合作中共同成長,需要在道德上合理的 AI 進化。
1942 年,作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《Runaround》中介紹了機器人三定律:
第一定律:機器人不得傷害人類,或因不作為而讓人類受到傷害。
第二定律:機器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。
第三定律:機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
在這個故事以及隨后的故事中,如我、機器人、二百周年紀念人或機器人系列,阿西莫夫描繪了一個人類在技術上遠比我們先進的世界,智能機器人幫助完成家庭日常任務是一種商品,在那里他們是老人的陪伴,孩子的保姆,也是工人。這些機器人有所謂的正電子大腦,一種管理和處理它們的視覺、智能和運動功能的 CPU。
在我們這個時代,可供企業和大眾使用的是所謂的狹義人工智能;根據手頭的任務,可以通過單獨的渠道或 API 訪問這種類型的人工智能。例如,對于自然語言處理,必須連接到一個或多個提供該類型 AI 的特定通道/API。對于計算機視覺,還必須連接到一個或多個特定通道/API。機器學習算法也是如此。除了實驗性之外,我們今天還沒有涵蓋所有內容的人工智能。當然,有一些實驗性的人工智能技術試圖將其提升到一個新的水平,被稱為通用人工智能,甚至更進一步,比如被稱為 PLATO 的人工智能,
人工智能對我們生活的深刻影響
企業和公眾使用的技術被認為是窄人工智能。即使人工智能處于真正的嬰兒期,我們也看到了對我們生活的深刻影響。我們看到社交媒體正在為我們提供更多重申我們信念的內容,即使它們可能是錯誤的。如果你認為登月是假的,社交媒體的人工智能會發現更多內容讓你感興趣。很冷。它不在乎是否還有一百萬個事實證明并非如此——它仍然會滿足你的需求。為什么?很簡單:錢。這些算法可以讓你的眼球忙于那些內容,從而為你提供更多廣告。干凈利落。
人工智能不會犯錯:誰承擔道德責任?
我們有一些案例,人工智能錯誤地識別了一個感興趣的人,或者人工智能視覺在識別有色人種方面存在更多問題,或者肯塔基州法院系統的案例,使用人工智能算法評估一個人的風險以確定保釋的可能性只是后來才發現系統不成比例地將黑人確定為更高的風險,而以前幾乎沒有區別。我們已經看到人工智能算法會根據年齡丟棄人們的簡歷。還有微軟的人工智能 Tay 的例子,在不到 16 小時的時間里,Twitter 被教導成為一個種族主義混蛋,它開始通過其 Twitter 賬戶發布煽動性和攻擊性的推文,導致微軟將其關閉。
人工智能與以前的編碼方法的區別在于,人工智能在很大程度上是一種統計算法,而以前的編碼方法或語言是確定性的 if-then-else 流。傳統上,我們已經看到編碼實踐演變為更嚴格的東西,并且演變了幾種方法和實踐:瀑布、敏捷、Scrum 等。實踐和法規也演變為保護信息,例如 PCI(保護持卡人的信息) ),或 HIPAA(保護患者信息)等。
這些方法和實踐的目的正是為混亂的開發帶來秩序,強制規劃和設計實踐,并為正在進行的任何開發帶來嚴格的測試方法。最終目標是擁有可靠、有彈性的軟件解決方案,既能解決需求,又能保護人們和企業的利益。
如前所述,人工智能算法是不同的。華盛頓大學教授佩德羅·多明戈斯(Pedro Domingos)在他的《算法大師》一書中說得非常好:“學習算法是種子,數據是土壤,學習程序是種植的植物。機器學習專家就像農民一樣,播種、灌溉和施肥,同時關注作物的健康狀況,否則會置身事外。” 到目前為止,還沒有普遍接受的方法可以將數據提供給當前的機器學習算法。在這些算法中也沒有幫助確定是非的護欄。
2022 年 10 月,白宮發布了《人工智能權利法案》的藍圖,其實質是試圖確立人工智能系統必須安全、有效、無歧視、尊重數據隱私、公開使用并具有廣泛人工監督的結構。在我看來,這是一個很好的開始嘗試,然而,它并沒有涵蓋最尖銳和最明顯的問題:它關注的是最終結果而不是開始。請允許我解釋一下:要使 AI 系統符合 AI 權利法案的所有要求,它必須首先輸入數據。干凈利落。
我相信在 2023 年,我們將開始看到新方法的擴散和成熟,以提供數據并測試 AI 算法的結果。在我看來,我們需要以類似的方式來考慮這些算法,就像我們認為人類需要有道德和價值觀一樣,重視公平和禮貌。很難認為它們需要道德指南針,但現實情況是這些算法會影響人類生活,這并不總是更好。
攜手共創未來
當我們實施人工智能模型時,我們需要進行步驟、規劃和設計。這些已經是傳統軟件開發過程中的常見做法。為什么不在人工智能中?我們需要問一些問題,例如這個模型是否適用于所有顏色和性別?這個模型是否被提供了等量的樣本數據,這些數據公平地代表了它會影響的人?這種模式的結果是否平等地保護了公民的權利?這個算法有沒有辦法識別它不應該說的東西?
簡而言之,人工智能是一種比傳統軟件更先進的技術。為什么不采用一種方法來提供數據、測試和監控結果,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想的機器人技術的三個基本定律一樣?
1942 年,作家艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《Runaround》中介紹了機器人三定律:
第一定律:機器人不得傷害人類,或因不作為而讓人類受到傷害。
第二定律:機器人必須服從人類給它的命令,除非這些命令與第一定律相沖突。
第三定律:機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
在這個故事以及隨后的故事中,如我、機器人、二百周年紀念人或機器人系列,阿西莫夫描繪了一個人類在技術上遠比我們先進的世界,智能機器人幫助完成家庭日常任務是一種商品,在那里他們是老人的陪伴,孩子的保姆,也是工人。這些機器人有所謂的正電子大腦,一種管理和處理它們的視覺、智能和運動功能的 CPU。
在我們這個時代,可供企業和大眾使用的是所謂的狹義人工智能;根據手頭的任務,可以通過單獨的渠道或 API 訪問這種類型的人工智能。例如,對于自然語言處理,必須連接到一個或多個提供該類型 AI 的特定通道/API。對于計算機視覺,還必須連接到一個或多個特定通道/API。機器學習算法也是如此。除了實驗性之外,我們今天還沒有涵蓋所有內容的人工智能。當然,有一些實驗性的人工智能技術試圖將其提升到一個新的水平,被稱為通用人工智能,甚至更進一步,比如被稱為 PLATO 的人工智能,
人工智能對我們生活的深刻影響
企業和公眾使用的技術被認為是窄人工智能。即使人工智能處于真正的嬰兒期,我們也看到了對我們生活的深刻影響。我們看到社交媒體正在為我們提供更多重申我們信念的內容,即使它們可能是錯誤的。如果你認為登月是假的,社交媒體的人工智能會發現更多內容讓你感興趣。很冷。它不在乎是否還有一百萬個事實證明并非如此——它仍然會滿足你的需求。為什么?很簡單:錢。這些算法可以讓你的眼球忙于那些內容,從而為你提供更多廣告。干凈利落。
人工智能不會犯錯:誰承擔道德責任?
我們有一些案例,人工智能錯誤地識別了一個感興趣的人,或者人工智能視覺在識別有色人種方面存在更多問題,或者肯塔基州法院系統的案例,使用人工智能算法評估一個人的風險以確定保釋的可能性只是后來才發現系統不成比例地將黑人確定為更高的風險,而以前幾乎沒有區別。我們已經看到人工智能算法會根據年齡丟棄人們的簡歷。還有微軟的人工智能 Tay 的例子,在不到 16 小時的時間里,Twitter 被教導成為一個種族主義混蛋,它開始通過其 Twitter 賬戶發布煽動性和攻擊性的推文,導致微軟將其關閉。
人工智能與以前的編碼方法的區別在于,人工智能在很大程度上是一種統計算法,而以前的編碼方法或語言是確定性的 if-then-else 流。傳統上,我們已經看到編碼實踐演變為更嚴格的東西,并且演變了幾種方法和實踐:瀑布、敏捷、Scrum 等。實踐和法規也演變為保護信息,例如 PCI(保護持卡人的信息) ),或 HIPAA(保護患者信息)等。
這些方法和實踐的目的正是為混亂的開發帶來秩序,強制規劃和設計實踐,并為正在進行的任何開發帶來嚴格的測試方法。最終目標是擁有可靠、有彈性的軟件解決方案,既能解決需求,又能保護人們和企業的利益。
如前所述,人工智能算法是不同的。華盛頓大學教授佩德羅·多明戈斯(Pedro Domingos)在他的《算法大師》一書中說得非常好:“學習算法是種子,數據是土壤,學習程序是種植的植物。機器學習專家就像農民一樣,播種、灌溉和施肥,同時關注作物的健康狀況,否則會置身事外。” 到目前為止,還沒有普遍接受的方法可以將數據提供給當前的機器學習算法。在這些算法中也沒有幫助確定是非的護欄。
2022 年 10 月,白宮發布了《人工智能權利法案》的藍圖,其實質是試圖確立人工智能系統必須安全、有效、無歧視、尊重數據隱私、公開使用并具有廣泛人工監督的結構。在我看來,這是一個很好的開始嘗試,然而,它并沒有涵蓋最尖銳和最明顯的問題:它關注的是最終結果而不是開始。請允許我解釋一下:要使 AI 系統符合 AI 權利法案的所有要求,它必須首先輸入數據。干凈利落。
我相信在 2023 年,我們將開始看到新方法的擴散和成熟,以提供數據并測試 AI 算法的結果。在我看來,我們需要以類似的方式來考慮這些算法,就像我們認為人類需要有道德和價值觀一樣,重視公平和禮貌。很難認為它們需要道德指南針,但現實情況是這些算法會影響人類生活,這并不總是更好。
攜手共創未來
當我們實施人工智能模型時,我們需要進行步驟、規劃和設計。這些已經是傳統軟件開發過程中的常見做法。為什么不在人工智能中?我們需要問一些問題,例如這個模型是否適用于所有顏色和性別?這個模型是否被提供了等量的樣本數據,這些數據公平地代表了它會影響的人?這種模式的結果是否平等地保護了公民的權利?這個算法有沒有辦法識別它不應該說的東西?
簡而言之,人工智能是一種比傳統軟件更先進的技術。為什么不采用一種方法來提供數據、測試和監控結果,以確保我們的算法具有道德指南針,就像阿西莫夫在 80 年前設想的機器人技術的三個基本定律一樣?