牛津大學教授:人工智能如何把控?


牛津大學教授:人工智能如何把控?



近年來 , 隨著人工智能技術的快速發展 , 公眾的擔憂有所上升 。 最響亮的聲音之一來自于已故的斯蒂芬·霍金教授 , 他認為人工智能可能會毀滅人類 。 那么 , 該如何看待人工智能的威脅?應該采取行動控制人工智能嗎?是否要像對待核能和其他潛在危險的技術一樣 , 制定法律甚至是國際條約來控制人工智能的發展?
回答這些問題之前 , 首先需要明確的是 , 人工智能的成就目前仍很有限 。 現在的人工智能系統能夠執行20年前計算機不可能完成的任務 。 比如 , 現在全世界每天都有數以百萬計的人在使用文本自動翻譯工具;無人駕駛汽車即將問世 , 未來10年將出現在馬路上;計算機現在比人更善于識別人臉等 。 盡管這些成就令人印象深刻 , 但人們還是不知道應該如何使機器具有意識和自我感知 。 因此 , 在可預見的未來 , 人工智能接管世界仍將是科幻小說的情節 。 當然這并不意味著我們可以高枕無憂 。
人工智能系統越來越多地被用于做出決策 , 這對人們產生了直接影響 。 例如 , 銀行發現人工智能系統善于預測潛在客戶是否會成為優質客戶——是否會按時還債等 。 他們可以通過使用大量的客戶記錄 , 來“培訓”一個人工智能系統 。 一段時間后 , 這一系統將能夠分析潛在客戶的詳細信息 , 從而預測其是否優質 。 對于銀行來說 , 可以迅速而低廉地決定是否需要一個特定的客戶 。 但對于客戶自身而言 , 應該會感到擔憂:如果銀行的人工智能系統在某種程度上存在偏見怎么辦?
這就是算法偏見 。 當前人工智能浪潮的一個特點是 , 系統無法像人那樣 , 解釋或合理化其所做的決定 。 所以 , 銀行可能會使用人工智能系統來決定不與你做生意 , 但卻不能給你解釋原因 。 這公平嗎?銀行這樣運作合乎道德嗎?誰來對這個決定負責?
這些問題不容忽視 。 一種解決辦法是 , 建議對人工智能技術的使用進行監管 。 我認為通過一般法律來管理人工智能的使用是不現實的 , 這似乎有點像試圖通過立法來管理數學的使用 。 一個似乎正在被接受的辦法是 , 如果軟件做出了影響你的決定 , 那么你應該有權知道這個決定是如何做出的 , 使用了哪些和你有關的數據 , 標準是什么 。 我認為這比較合理 。 使人工智能可解釋化和透明化 , 是當今這一領域面臨的最大挑戰之一 。
在某些情況下 , 人工智能決策可能直接事關生死 , 比如在戰場上使用人工智能系統 。 盡管目前還沒有證據表明這種“致命性自主武器”已經被使用 , 但確實已經具備了可能性 。 過去5年來 , 人工智能領域的科學家們積極行動 , 希望政府認識到這一問題的嚴重性并做出應對 。 最近英國政府在一份報告中明確表示 , 永遠不給人工智能系統傷害人的權力 。
人工智能只是一種技術 , 就像任何技術一樣 , 可以用來造福人類 , 也可能帶來危害 。 條件反射式的立法 , 對于把控人工智能不太可能奏效 。 我們需要以負責和道德的方式使用人工智能 , 正如最近全球關于自主武器的討論取得進展一樣 , 國際社會需要應對解決人工智能帶來的挑戰 。
【牛津大學教授:人工智能如何把控?】(作者為英國牛津大學計算機系主任)
《 人民日報 》( 2018年05月15日 22 版)

    推薦閱讀