電影《關鍵報告》成現實 犯罪發生前AI都可「預測」?

Comment is Closed

美國科幻小說家菲利普·K·狄克的作品《關鍵報告》(The Minority Report)描述一個可以預測犯罪,並在犯人真正犯罪以前就逮捕他們的未來世界,現在或許科幻小說與電影中的場景即將成真。

2.2_结果

BBC報導,科技公司PredPol稱目前該公司已可靠著數據分析與演算法提高城市中10%至50%的「犯罪偵測率」。這依靠著多年的歷史數據庫,包括犯罪的類型、位置、時間等,再將其與其他社會經濟數據相結合,最後透過最初設計用來預測地震餘震的演算法進行分析。

據報,這套犯罪預測軟體可以預測未來12小時內的特定犯罪的地點與時間,隨著每天不同的新數據不斷加入,演算法每日都會進行更新,現在這套軟體已和洛杉磯警察局展開合作實驗。

PredPol開發的犯罪預測軟體會使用色彩編碼在地圖上顯示出演算法做出的預測,每個框代表500平方英尺,紅色框內代表是高風險區域,鼓勵警察們至少花費他們10%的時間在該處集中巡邏。目前美國有超過50個警察部門開始使用PredPol軟體,英國肯特郡(Kent)警方表示,試用該軟體4個月以來街頭暴力事件下降了6%。

2.1_结果

▲被PredPol犯罪預測軟體選取起來的紅色區域是犯罪高風險區域。/新聞照來源:PredPol

PredPol聯合創始人兼人類學教授Jeff Brantingham指出,人類分析師無法應對及建立大量數據間的關聯性並得出結論,他指出,過去警方使用的「熱點分析」(hot spot analysis)方法並不能用來預測犯罪,而只是將過去的犯罪紀錄疊加起來紀錄在地圖上而已。

不過,依然有人對這種「預測犯罪」的科技技術表示不以為然,稱其為「偽科學」。人權組織Privacy International則想知道,這套系統是否也能預測警察暴力以及白領犯罪,還是僅適用於那些已被邊緣化的社區。

人工智慧是否會帶有種族或其他偏見是反對者們所擔心的一點。上(10)月稍早,科技公司亞馬遜(Amazon)才坦承已經使用了10年之久的智慧招聘系統似乎有「性別歧視」,會自動將出現「女性」一詞的履歷表扣分,亞馬遜因而宣布將棄用該系統。

科技巨頭微軟(Microsoft)曾對人工智慧為何存在歧視做出解釋,該公司分析道,若機器學習的程式是透過社會中現有資料進行訓練,那麼只要這個社會還存在偏見,機器學習也會重現這些偏見。

政策研究機構蘭德公司(Rand Corporation)分析師John Hollywood警告,若未來這些技術遭到當權者及政府誤用或濫用,公民就必須在預測犯罪與公民自由之間做出抉擇。

讚新聞是一個完全獨立的媒體,營運只靠網路廣告支撐,如果您支持讚新聞的話請對此網站關閉廣告攔截功能(如:Adblock)讚新聞衷心的感謝您。

Hssszn讚新聞著作權聲明:本網站之文字、圖片及影音,非經授權,不得轉載。

來源:CHEWS