AI公平性:如何讓人工智能真正服務社區

AI公平性:如何讓人工智能真正服務社區

【AI公平性:如何讓人工智能真正服務社區】創新者在發展人工智能時有一個重要目標——確保AI能夠服務于公共利益 。 這個目標有時容易被忽視 。
目前有一種趨勢是將人類納入AI決策過程中 , 這就是\"人在環路中\"這一概念的由來 。 但這只是確保AI能為廣泛人群服務的一個方面 , 而不僅僅是為少數技術專家服務 。 換句話說 , 在系統中融入人性化元素固然重要 , 但這與確保系統以社區為中心、致力于解決社區問題是不同的 。
\"只有當我們設計AI來服務于我們關心的社區時 , AI才能真正推動資源不足的非營利組織發展 , \"米歇爾·弗洛雷斯·弗林和米娜·達斯在《斯坦福社會創新評論》中寫道 。 \"但當非營利組織考慮如何將AI融入其工作時 , 許多組織會尋求技術行業的專業知識 , 期待獲得工具和實施建議以及倫理指導 。 \"
在這里和其他地方 , 人們都在尋求解決快速變化世界中的挑戰 。 這需要政府、企業和學術界之間的深度合作 。
實際行動
在斯坦福大學最近舉辦的一次會議上 , 白板顧問公司的卡洛斯·伊格納西奧·薩瓦拉采訪了斯坦福HAI研究所研究總監瓦妮莎·帕利和西格爾家族基金會主席凱蒂·奈特 , 討論了她們在非營利組織推進這種面向社區工作的經驗 。
\"我們不能讓計算機科學家獨自在辦公室里開發技術 , \"帕利說道 。 \"我們需要醫生、律師、人文學者、教育工作者 , 需要所有這些不同學科和專業領域的專家來確保技術造福每個人 。 所以就我們的關注重點而言 , 我們專注于以人為中心的AI 。 \"
\"我們尋找利用技術行善的方法 , \"奈特說 , \"特別是人工智能等新興技術 , 但我們也深入思考如何減輕普及技術的風險和危害 , 因為如果我們在任何地方、任何時候、任何應用中都使用技術 , 可能會有一些我們需要考慮的陷阱 。 \"
變革策略
奈特談到了解決她提到的陷阱的規劃 。
\"我們有很多策略 , 既包括社會部門如何利用技術提高效率 , \"她說 , \"擴大影響力 , 以不同方式思考如何解決我們幾十年來看到的一些頑固問題 。 但我們也在思考如何確保來自社區的問題集合 , 即人們試圖解決的實際、具體問題 。 \"
她還指出 , 思考技術在哪些方面能夠和不能提供幫助是很重要的 。
\"我們經常思考所謂的'設計、治理、資助、部署' , \"她說 。 \"這些是技術生命周期中的不同節點 , 我們可以在這些節點整合更多以人為中心的思維方式和質疑精神 , 希望這能引導我們開發出真正解決實際問題的技術 。 \"
帕利提到了HAI的一個重要工具——倫理與社會審查委員會 , 可以幫助審核想法 。
\"我們有大型資助項目 , 我們分發資金 , 所有申請研究資金的提案 , 研究人員都必須提交一頁紙的文件 , 說明如果這項研究和技術在整個社會中變得普及 , 可能產生什么影響 , \"她說 , 申請者還必須談論風險緩解 。 \"我們有一個跨學科的專家小組 , 包括計算機科學家、倫理學家、醫療保健專家等各個學科的人員 , 他們會審查這些聲明 。 \"
然后 , 她解釋說 , 利用以社區為導向的設計原則也很重要 。
\"從歷史上看 , 我們見過很多技術 , 當然 , 開發它們的人都有良好的意圖 , 但他們缺乏跨學科的視角來真正理解社會需求 , 更廣泛的公眾也沒有真正參與進來 , \"她說 。
\"很多人可以告訴你很多關于他們的解決方案以及它有多棒的事情 , \"奈特補充道 。 \"但當你問他們這個解決方案需要解決什么問題時 , 他們的回答就不那么明確了 。 對我來說 , 這是一個危險信號 。 \"
閱讀AI
奈特談到了資助Quill這個教育項目 。
\"他們擁有大量關于教師實際反饋的數據 , 并在自己的工具中使用這些數據來幫助學生和教師評估他們的寫作 , \"她說 。 \"這有點像副駕駛 , 但不是主動提示你告訴你該做什么 , 而是當你需要幫助時能夠協助你 , 并提供專門根據教育工作者意見設計的幫助 , 像老師或教練那樣指導學生獲得更好的寫作結果 。 \"
帕利更廣泛地評論了資助各種有益方面 , 這些方面將為人民而發展 。
\"我們必須繼續思考文化價值觀如何嵌入到這些AI系統中 , 再次考慮與實際研究文化的人文學者合作 , 然后與這些不同文化的社區合作 , 了解模型產生的結果 , \"她說 。
邊緣工作
帕利后來提到了各個團隊和個人研究員在這個領域所做的基礎工作 。
\"需要有人愿意對這些想法下注 , \"她說 。 \"從歷史上看 , 一直是政府和慈善事業在做這件事 。 慈善事業無法填補所有空白 , 但還有機會 。 \"
在小組討論中 , 兩人談到了人才、伙伴關系和公共數據集 , 最后敦促審查項目并讓AI工作保持在正確的道路上 。
\"明確定義問題 , \"帕利說 , \"如果有人向你推銷 , 在他們開始談論解決方案之前 , 先問問他們試圖解決的是什么問題 。 我不會讓任何人再向我推銷另一個結果是聊天機器人的東西 , 只是包裝得很華麗 , 本質上還是你可以在瀏覽器中訪問的ChatGPT , 但他們讓它對非營利組織友好 , 現在想要1000萬美元 。 \"
\"對技術進行批判性思考 , 對你在媒體和一些大型AI實驗室看到的內容進行批判性思考 , 對研究實際說了什么獲得多元化的觀點 , \"奈特補充道 。 \"思考技術實際能做什么 , 以及技術的機會 , 因為機會很多 , 但不是保證的 , 我們所有人都有責任確保以我們希望的方式構建和使用技術 。 \"
所有這些都有助于用AI服務社區 。 讓我們看看進入2026年會發生什么 。
Q&A
Q1:什么是以人為中心的AI?
A:以人為中心的AI是指在AI系統開發過程中 , 不僅僅依靠計算機科學家 , 還需要醫生、律師、人文學者、教育工作者等各個學科的專家參與 , 確保技術能夠真正造福每個人 , 滿足社會需求 。
Q2:如何確保AI項目真正解決實際問題?
A:關鍵是在評估AI項目時 , 首先要求開發者明確定義他們試圖解決的具體問題 , 而不是先介紹解決方案 。 如果開發者無法清晰回答要解決什么問題 , 這就是一個危險信號 。
Q3:非營利組織如何更好地利用AI技術?
A:非營利組織應該以社區需求為出發點 , 與跨學科專家合作 , 建立倫理審查機制 , 確保AI技術真正服務于社區 。 同時要批判性地思考技術能力 , 避免被華而不實的解決方案誤導 。


    推薦閱讀