跳至主要內容

你已經決定好你的萬聖節食譜了嗎?

AI識別錯誤。無辜少年誤把槍當作糖果袋被警方拘留

跳至文章內容

查看 6 條評論

(著)(編輯)

公開:

以大尺寸查看此圖像
廣告

在一次可怕的事件中,一名十幾歲的男孩正在吃糖果並與朋友聊天,但20分鐘後,他被警察用槍指著並戴上手銬。
 
武裝警察在美國一所高中放學後入侵。因擔心有人持槍,八輛警車趕到現場,他們的槍包圍了高中生艾倫,並給他戴上手銬。
 
艾倫突然覺得自己可能要死了。但那裡只有一個空糖果袋。

帶來恐懼而不是安全的人工智能槍支檢測系統引起了轟動。

高中生被AI槍支檢測系統懷疑

該事件發生於 2025 年 10 月 20 日晚上 7:00 左右。在馬里蘭州巴爾的摩縣的肯伍德高中。

放學後,塔基·艾倫在足球訓練後等待朋友接他時,正在吃多力多滋零食,他捲起空袋子,放進口袋裡。

緊接著,一場可怕的災難降臨到了他身上。

就在這時,學校的人工智能槍支檢測系統錯誤地檢測到艾倫可能持有槍支。警報立即轉發給學校安全部門,然後轉發給警方。

20分鐘後,一名武警用槍指著他,給他戴上手銬。

晚上7時20分,八輛警車抵達學校外。武裝警察拔出槍,走到艾倫面前,艾倫剛才正在和朋友說話。

突然,我被告知,“趴在地上!”我真的不知道發生了什麼事(塔基·艾倫)

他被迫跪下,雙手背在身後,並被戴上手銬。 “那一刻,我真的想,‘哦,不,我可能會被殺。’”

以大尺寸查看此圖像

“它看起來像一把槍”“它是碎片”事件發生後仍然受到創傷

經過搜查,沒有發現槍,現場還留下了艾倫吃過的一袋多力多滋。

警方展示的一張照片顯示,他雙手拿著一個袋子,食指伸出。令人難以置信的是,人工智能將其誤認為是一把槍的輪廓。

一名警察給我看了照片並說:“這看起來像一把槍。”但我說:“不,這只是芯片。”

我心裡很緊張,但我不敢相信學校會保護我。即使結束了,也沒有人來跟我說話。包括校長。

有一天,艾倫以為自己快要死了,這時他被武裝警察包圍,槍口指著他。

回顧這件事,他陰沉地說道:

我不想再出去了。我擔心如果我吃薯條或喝飲料,警察就會再來。

以大尺寸查看此圖像

家庭憤怒和高中/警察的反應

“沒有必要用槍指著一個 16 歲的孩子,”艾倫的祖父拉蒙特·戴維斯 (Lamont Davis) 說。

第二天,該高中向家長發出解釋,稱“安全是我們的首要任務”,並為涉事學生提供諮詢。

雖然學校負責人稱這是“非常不幸的事件”,但警方沒有正式道歉,而是發表了以下聲明:

我們根據當時掌握的信息作出了適當回應。在確認不存在威脅​​後,問題得到安全解決。

對人工智能局限性和誤報造成的種族偏見的擔憂

該系統是弗吉尼亞州初創公司 OmniRat 開發的槍支檢測人工智能係統。

該機制是分析監控攝像頭的鏡頭,如果檢測到可能是槍支的物體,則立即發出警報。

以大尺寸查看此圖像

然而,像這樣的誤報不但沒有保護生命,反而危及無辜人民。此外,過去曾出現過該系統未能預防實際槍擊事件的案例,讓人對其準確性和有效性產生懷疑。

以大尺寸查看此圖像

此外,監控攝像頭的持續監控引發了隱私問題,人們擔心人工智能決策可能會助長種族偏見。

當地媒體也對黑人艾倫成為目標這一事實做出了敏感反應。

“告警察!”的聲音和“我對未來的事情感到害怕。”

“我只是在吃薯條,”艾倫說。 “他們用槍指著我,給我戴上手銬。我不希望這種事發生在任何人身上。”

在這起案件中,一名無所事事的高中生突然被學校監控系統誣陷為“持槍者”,並被警方逼入絕路,直至他無辜地準備赴死。

以大尺寸查看此圖像

也在當地媒體和 SNS(例如 X.人們會問:“這個包看起來像一把槍嗎?”

以大尺寸查看此圖像

看過報導的用戶為艾倫感到難過,批評警方依賴人工智能的判斷,以及引入該系統的學校,並建議提起訴訟。

此外,關於人工智能係統可靠性的質疑和種族歧視觀點的出現,在社會上引起了各種反響。

  • 如果他犯了錯誤,他可能會被殺或被毆打(以警察自衛的名義)。我們應該起訴警察!
  • 一想到“警察已經確定你對自己構成危險”​​之類的事情,我就不寒而栗。
  • “該過程按預期進行”! ?去恐嚇一個無辜的孩子?別傻了!
  • 如果人工智能槍支探測系統的設計是為了補充人類的判斷,為什麼人類操作員不檢查攝像機鏡頭?
  • 他拿著糖果袋,以免亂扔垃圾。但又害怕被殺
  • 作為一名軟件工程師,這樣的工具是極其危險的。數據不足,無法保證可靠性。我見過同樣的算法將月球誤認為是飛機,或者將汽車誤認為是狗。完全不適合決策
  • 即使是昂貴的人工智能模型在做出決策之前也需要嚴格的評估。這只是基於數學的猜測,與智力無關。
  • 人工智能開發者很快將不得不支付巨額法律損失
  • 我很高興他身體狀況良好。如果將人工智能安裝在武裝機器人中……人工智能將是一個大問題。
  • 了解了人類AIが人種差別的這是有道理的
  • 學校欠他一個道歉。
  • 人工智能必將成為人類不可忽視的嚴重問題。我們現在需要提起重大訴訟來控制這個問題。
  • 如果事態升級會發生什麼?想像未來
  • 僅僅遵循計算機的指令並不是藉口!

快速人工智能槍支檢測系統的誤報威脅生命

誠然,校園槍擊事件已成為美國的社會問題。

學校出於安全目的而採用的人工智能槍支檢測系統能夠比人類更快地做出反應,但諷刺的是,它也讓人們認識到錯誤警報可能會危及生命。

以大尺寸查看此圖像

無論系統多麼方便、多麼先進,也不可能出現零誤報。

尤其是如果目的是探測致命槍械,豈不是需要了解準確度並根據情況制定協議?

使用人工智能代替人類的系統數量正在穩步增加,但看起來我們將進入一個要求人類在處理這些系統時更加小心和體貼的時代。

參考:福克斯巴爾的摩/未來主義

📌 廣告下方貼有我們工作人員精心挑選的“想讀”。

動物・鳥類

查看所有有關動物和鳥類的文章

  1. 正在加載文章列表。

烹飪/健康/生活方式

查看所有有關烹飪、健康和生活的文章

  1. 正在加載文章列表。

最新文章

查看所有最新文章

  1. 正在加載文章列表。