近年來,隨著人工智能技術在各行各業中得到廣泛應用,AI對人類社會的影響可謂是滲透到了方方面面。在這種背景下,國內也誕生了眾多AI科技公司,比如專注于AI+視頻的極鏈科技、又比如說近日推出了城市級全棧式AI解決方案,還介紹了集全局管理能力為一體的城市物聯網操作系統的曠視科技等等。可以說,人工智能技術正在這顆星球上如火如荼的進行展開。
但與此同時,人工智能的推進其實也產生了不少問題。例如最近較為火爆的換臉技術產生的數據安全問題、大數據產生的“殺熟”問題、自動駕駛的安全責任問題、人臉識別產生的隱私問題等。路易斯維爾大學網絡安全實驗室的羅曼教授發表的《人工智能和網絡安全:人工智能的失敗》便列舉過十項重大的人工智能失敗案例。比如說特斯拉自動駕駛汽車造成人員傷亡、機器人傷人事件、保險公司利用臉書數據預測事故發生率涉嫌存在偏見等等。這些失敗案例可以歸結為人工智能系統在學習階段的錯誤,也可以歸結為人工智能技術的不確定性所帶來的道德風險。
人工智能產品除了符合自然規律這個物理性之外,還具有意向性,即人工智能產品也會體現人類的意志和愿望。隨著技術的發展,技術改變社會的作用增強,技術的發展可能會遠離人類的最初目的和控制。因此,正確而全面的認識人工智能的潛在道德風險,并對其進行規避顯得十分必要。
一、人工智能發展引發智能機器的道德主體地位的思考
人工智能離不開算法,而算法是由人類輸入的數據,出了問題究竟由誰來負責呢?機器以及算法是否具備成為主題的資格和條件呢?人工智能是否具有道德主體地位呢?這些問題涉及對于道德主體地位的溯源,還涉及人類的道德推理能力是先天賦予還是后天學習的討論。根據人工智能的現有發展速度和規模,人工智能或許在未來能夠發展出具有自我意識的智能產品,這些人類制造出來的智能機器是否也該被賦予與人類同等的權利和地位呢?上述問題都涉及對人工智能產品的主體地位的思考,是我們所必須考慮的。
二、人工智能發展引發新理論問題
人工智能正在以更快的發展速度和水平融入人類社會的方方面面,甚至可以說半個多世紀的人工智能發展遠遠超過了過去幾百年的科技發展水平。而人工智能一旦獲得同人類相近的思維能力和推理能力,如何界定人工智能與人類的道德地位將面臨道德倫理挑戰:人工智能的高效率和低失誤率在司法領域的使用,會給傳統司法審判帶來巨大的法律倫理挑戰;人工智能手術機器人將給醫療衛生領域帶來醫療倫理挑戰。面對如此多的倫理挑戰,我們將如何發展或者改進現有的倫理理論體系,使之更好地適應人工智能的發展。既要人工智能更好地服務于人類,又要限制其負面效應,這是人工智能發展面臨的巨大挑戰。
三、人工智能引發新的社會安全和公平正義問題
人工智能的發展帶來信息安全風險。人工智能產品在很多領域已經與人類形成了服務和被服務的關系,如手機語音助手、機動車的軌道偏離糾正等。當這些人工智能產品和人類進行交互時,如何保證使用者的信息安全,或者說使用者的信息一旦被上傳到遠程終端之后,又將如何保證信息安全,這是一個問題。而且人工智能機器人工作效率高、出錯率低、維護成本好、能保證工作的連續性,其在各領域的運用可能會造成對人類就業的沖擊。許多人的工作安全和穩定會直接收到人工智能發展的影響,特別是那些不需要專業技術與專業能力的工作。這將導致勞動者失業率和未就業人口總量的提高,這些都不利于社會的穩定和安全。
目前社會已經逐步認識到了問題的嚴重性,也嘗試提出了解決方案:
首先,人工智能的道德風險是預置的,是人類在涉及人工智能之初就預先設置好的。人工智能涉及具有意向性,嵌入了人類的目的,也即道德。在具體的人工智能產品設計上就應該進行道德風險評估,對人工智能可能引起的道德風險有個準確的把握,這樣才能防范人工智能可能帶來的道德風險。
其次,人工智能需要以不傷害人類為前提。人工智能的設計不應僅僅局限于某一種狀態,從設計者的設計理念到人工智能產品都應該規范與約束,才能保障人工智能發展不損害人類利益,不傷害人類。
最后,正義是一個社會健康發展的重要基石,是人類社會發展的價值追求。人工智能在設計、開發之初就應該關注社會的公平和正義。人工智能的設計不應擴大主體間權利與地位的差距,導致實質上的不公平。例如,無人機的技術需要大量的成本,并非所有人都能享受該項技術成果,這就會導致一些落后國家和地區的公平性喪失;使用無人機送快遞會造成現有快遞人員的失業,導致技術結果的不公平。簡而言之,人工智能的設計中要確保其設計目的是為了人類的整體利益而非個人。
綜上所述,人工智能技術使技術安全性及隱私保護等各方面的問題變得更加重要且緊迫,因此需要內化技術設計、決策主體的責任意識;并且完善技術設計制度,并促成各類技術主體之間的合作。只有這樣,才能有效地規避人工智能道德風險,更好地促進人工智能的健康發展。