Kolejna wpadka AI rozpoznającego broń. Szkoła zamknięta przez instrument muzyczny

W USA coraz więcej placówek stawia na systemy oparte na AI, których celem jest rozpoznawanie broni. 

Paweł Maretycz (Maniiiek)
0
Udostępnij na fb
Udostępnij na X
Kolejna wpadka AI rozpoznającego broń. Szkoła zamknięta przez instrument muzyczny

Efekty? Kilka miesięcy temu policja zatrzymała ucznia za jedzenie Doritosów na terenie szkoły, ponieważ AI uznało je za niebezpieczną broń. Tym razem doszło do zamknięcia całej szkoły, ponieważ uczeń wniósł na jej teren niezwykle niebezpieczny przedmiot zdolny ranić innych na odległość. Mowa tu o klarnecie. I wbrew pozorom ma to sens, pod warunkiem że dany uczeń nie potrafi jeszcze zbyt dobrze na nim grać i słuchanie go powoduje ból uszu.

Dalsza część tekstu pod wideo

Szkoła zamknięta przez klarnet

Oczywiście to tylko drwina z mojej strony. System AI rozpoznał w klarnecie broń palną i dlatego automatycznie zamknął cały kampus. Rzecz miała miejsce w szkole średniej Lawton Chiles w Oviedo. Po całym incydencie dyrektora placówki napisała do rodziców następującą wiadomość:

Chociaż nie było zagrożenia dla szkoły, chciałabym prosić Państwa o rozmowę z dzieckiem na temat niebezpieczeństw związanych z udawaniem posiadania broni na terenie szkoły.

Co brzmi jak kpina. To nie uczeń wnoszący klarnet — najprawdopodobniej na zajęcia — jest tu problemem, a nieudolność systemów rozpoznających broń. Najwidoczniej jednak przyznanie, że winny jest system ZeroEyes, którego subskrypcja kosztuje placówkę 250 tysięcy dolarów, nie jest czymś, na co dyrekcja się odważy.

Tu warto podkreślić, że poza AI i dyrekcją zawiódł także pracownik systemu ochrony. Otóż informacja o broni jest wysyłana to ludzkiego pracownika, który ma potwierdzić alarm. Jeśli jednak nagranie było niewyraźne, to o z jego perspektywy lepiej potwierdzić zagrożenie, niż ryzykować, że przepuścił broń na teren szkoły. 

Niewygodne pytania

Rodzice i niezależni eksperci do spraw bezpieczeństwa zaczęli się domagać danych dotyczących skuteczności systemów. I nie chodzi tu tylko o pieniądze: każdy fałszywy alarm spowodowany przez paczkę chipsów, czy instrument muzyczny sprawia, że rośnie fałszywe poczucie bezpieczeństwa wśród uczniów. Ot, alarmy mogą być ignorowane, ponieważ uczniowie uznają, że to kolejny błąd AI. Tym samym jedynym, kto zyskuje, jest tylko firma zajmująca się ochroną.