首頁>資訊 >
天天視訊!AI崛起引發(fā)擔憂,英國政府發(fā)布人工智能產業(yè)白皮書,提出五項發(fā)展原則 2023-03-30 07:47:07  來源:36氪

AI技術正在以史無前例的速度發(fā)展,世界各國政府監(jiān)管層面也開始對其展開特別關注。

周三,英國政府發(fā)布了第一份人工智能白皮書,提出了在AI技術瘋狂炒作之際對該技術實行全方位監(jiān)管的方法。

在該份白皮書中,英國科學、創(chuàng)新和技術部(DSIT)概述了監(jiān)管機構應考慮的5個明確原則,以最好地促進人工智能在其監(jiān)控的行業(yè)中的安全和創(chuàng)新使用:


(資料圖)

安全性、可靠性和穩(wěn)健性:人工智能的應用應以安全、安全和穩(wěn)健的方式運行,并仔細管理風險。

透明度和可解釋性:開發(fā)和部署人工智能的組織應該能夠溝通何時以及如何使用它,并以適當?shù)脑敿毘潭冉忉屜到y(tǒng)的決策過程,以匹配使用人工智能帶來的風險。

公平:人工智能的使用方式應符合英國現(xiàn)行法律,例如《2010年平等法》或英國GDPR,不得歧視個人或創(chuàng)造不公平的商業(yè)結果。

問責制和治理:需要采取措施確保對人工智能的使用方式進行適當?shù)谋O(jiān)督,并對結果進行明確的問責制。

可爭議性和補救性:人們需要有明確的途徑來質疑人工智能產生的有害結果或決定。

DSIT表示,這種方法將意味著英國的規(guī)則可以隨著這種快速發(fā)展的技術發(fā)展而適應,確保對公眾的保護,而不會阻礙企業(yè)使用人工智能技術來實現(xiàn)更強勁的經濟增長、更好的就業(yè)機會和大膽的新發(fā)現(xiàn),從根本上改善人們的生活。

在接下來的12個月里,英國監(jiān)管機構將向人工智能公司發(fā)布實用指南,以及其他工具和資源,如風險評估模板,以闡明如何在其行業(yè)中實施這些原則。在議會時間允許的情況下,可以引入立法,以確保監(jiān)管機構始終如一地考慮這些原則。

值得注意的是,英國計劃在其人權、健康和安全以及競爭監(jiān)管機構之間分配管理人工智能的責任,而不是創(chuàng)建一個專門負責該技術的新機構。

此外,英國政府表示,將資助2萬英鎊建立一個新的沙盒,為人工智能企業(yè)提供測試環(huán)境。企業(yè)可以測試如何將監(jiān)管應用于人工智能產品和服務,以支持創(chuàng)新者將新想法推向市場,而不會受到規(guī)則手冊障礙的阻礙。

人工智能初創(chuàng)公司Humanising Autonomy的首席執(zhí)行官兼聯(lián)合創(chuàng)始人Maya Pindeus表示,政府的舉動標志著監(jiān)管人工智能的“第一步”:

確實需要有一點更強有力的敘述。我希望看到這一點。這算是為此埋下了種子。

AI爭論進入白熱化

英國監(jiān)管白皮書推出之際,正值社會對于AI技術的爭論進入白熱化。

周三早些時候,生命未來研究所(Future of Life)向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,暫停時間至少為6個月。

該機構以“引導變革性技術造福生活,遠離極端的大規(guī)模風險”為使命,其在信中提到:

我們不應該冒著失去對文明控制的風險,將決定委托給未經選舉的技術領袖。只有當確保強大的人工智能系統(tǒng)的效果是積極的,其風險是可控的才能繼續(xù)開發(fā)。

人工智能實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴格的審查和監(jiān)督。

圖靈獎得主Yoshua Bengio、馬斯克、蘋果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經簽署公開信。

值得玩味的是,OpenAI CEO Sam Altman的名字一度也出現(xiàn)在公開信上,不久之后無端消失。

關鍵詞:

相關閱讀:
熱點
圖片