首頁>要論>縱議 縱議
奧巴馬發(fā)話能讓蘋果解鎖嗎?
3月12日,美國總統(tǒng)奧巴馬就蘋果公司與聯(lián)邦調(diào)查局(FBI)之間的恐嫌手機解鎖爭議罕見地發(fā)表看法。奧巴馬指出,“如果我們的科技可以制造出完全無法進入的裝置,沒有鑰匙也沒有后門,那我們怎么去逮捕兒童色情圖片的罪犯?怎么去破解恐怖分子的陰謀?”
奧巴馬的談話首先提出了一個問題,科研和科技成果的應用是否有禁區(qū)。奧巴馬對此進行的是假設,如果我們的科技可以制造出完全無法進入的裝置。這個假設還可以更多和更嚴重一些,假如我們的科技可以制造出不受人控制,并且可以殺人和毀滅生態(tài)的裝置或武器,該如何辦?
這一點科學界早就有回答,任何科研和成果的應用,都必須符合人類社會的倫理。這個倫理最基本的核心是珍重生命,不得傷害生命。不得以滿足個人或少部分人的利益而傷害大多數(shù)人的生命和利益。
站在人的立場上看,無論是今天的阿爾法狗,還是未來的其他人工智能和機器人等,都不得損害人的利益和生命。阿西莫夫的機器人三原則早就有約定:1.機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;2.在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;3.在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。
不過,這是就人們可以預料到的科研過程和科技產(chǎn)品可能對人造成傷害而做出的提前設防。但是,更多的科技產(chǎn)品是人們無法預料其制造和尤其是使用過程中可能造成的對人的負面作用。在一些科研人員看來,科技無法有禁區(qū),而且,即便科研成果的應用有問題并造成了對人的傷害,科學是可以通過自己的力量來糾偏的。
但是,即便是人類社會有最強大的自組織功能,也需要進行試錯來糾偏和糾錯,具有時間的延后性。在成果和產(chǎn)品的使用前進行預測固然最好,但更多的是在后來的使用過程中發(fā)現(xiàn)弊端并及時糾錯,所以科研和科技成果的使用當然會有公認的禁區(qū),即不得危害人。
顯而易見,要到科技產(chǎn)品出現(xiàn)了問題才解決的話,就已經(jīng)遲了。這也是奧巴馬提出的難題,如果科技可以制造出完全無法進入的裝置,怎么去破解恐怖分子的陰謀?因此,科技的第一個禁忌就是,不能制造完全無法進入的裝置,不能造出人類無法控制的智能技術。但是,這一點已經(jīng)有可能人們說了不算,誰也無法預測一種人工智能裝置制造出來后,如果其有自我學習和進化的功能,人類是否還能控制它。
不過,對于手機的解鎖問題,還不在失控的范疇,因為解鎖的技術由蘋果公司掌握著。奧巴馬認為,對于恐怖嫌犯,政府執(zhí)法人員在取得搜索令之后,可以搜索其房間,對手機卻無可奈何。更多人擔心的是,如果政府執(zhí)法人員取得了許可,就可以肆意侵犯每一個人的隱私,并且可以威脅和危害每一個人的安全。
盡管奧巴馬認為執(zhí)法人員可以解鎖手機,但并非僅僅是執(zhí)法人員獲得了搜索令之后就可以強迫設計者和廠商解鎖,而是要論證,這種解鎖是否有更多的正當理由??蒲腥藛T和廠商設計、研發(fā)和生產(chǎn)科技產(chǎn)品的自由正如人的言論自由一樣,應當最大程度地不受限制。但是,相應地,也應當類比人的言論自由的邊界,即言論自由是否構(gòu)成危險。
美國的最高法院對言論自由早就有定義,只有當一種言論所宣傳的暴力已經(jīng)構(gòu)成了“清楚與現(xiàn)實的危險”,并且這種危險已到了迫在眉睫的地步,政府才有權干預。比照這一點,也只是恐怖分子的手機信息構(gòu)成了“清楚與現(xiàn)實的危險”,并且這種危險已到了迫在眉睫的地步,執(zhí)法人員才有權干預——解禁信息或禁止使用這種科技和成果。(張?zhí)锟保?/p>
編輯:劉文俊
關鍵詞:蘋果解鎖 奧巴馬