英國官員表示,該國希望在人工智能的監管方面採取獨立的做法,並暗示將與其主要西方夥伴的做法有所不同。
英國數字政府及人工智能部長Feryal Clark在接受訪問時指出,與OpenAI及Google DeepMind等人工智能公司建立了良好的合作關係,這些企業已自願向政府開放其模型進行安全測試。
她強調,在開發模型的初期就融入安全措施的重要性,並表示政府會與行業合作確保安全標準的落實。
首相Keir Starmer也在談話中提到,英國在Brexit後有能力以最符合本國利益的方式進行監管,這使得英國能夠選擇最適合自己的模式。
目前英國尚未推出正式法律來監管人工智能,主要依賴個別監管機構執行現有商業規則,與已經推出全面立法的歐盟形成對比。相比之下,美國在聯邦層面上並未有任何人工智能的監管。
在Starmer的選舉宣言中,工黨承諾針對大型人工智能模型引入相關的監管,但至今英國對於AI安全立法的具體內容仍未確認,仍在與業界進行諮詢。
根據倫敦法律公司Marriott Harrison的商業夥伴Chris Mooney的看法,儘管政府宣稱其監管路線支持創新,實際上客戶對當前的不確定性感到不滿。
此外,Duggal(AI初創公司Builder.ai的CEO)指出,儘管政府的行動計畫展現出雄心,但在未明確規範的情況下推進是”近乎魯莽”的,並強調應避免重蹈之前的錯誤。
在版權方面,Starmer政府亦有意改革,前年公布過對版權框架的諮詢,評估AI開發者使用藝術家及媒體作品訓練模型的相關例外條款。
而倫敦公司Osborne Clarke的國際AI部門負責人John Buyers則表示,政府應提供清晰的政策方向,並指出未來的人工智能安全法律仍在等待發布。
然而,UK技術界的一些人士認為,較為靈活的監管方式可能更合適,例如針對特定行業如金融服務和醫療保健的規範。