Hej Siri, jesteś głupi

Siri, czy przestrzegasz Trzech Praw Robotyki? Podobnie jak wiele innych głupich pytań, jest to pytanie, które ktoś w Apple mozolnie przewidział. „Zapominam o pierwszych trzech”, ćwierka odpowiedź, „ale jest jeszcze czwarta: „Inteligentna maszyna powinna najpierw rozważyć, co jest bardziej warte zachodu: wykonać dane zadanie, czy zamiast tego znaleźć jakieś wyjście z niego”. ”

Ha ha! Wyobraź sobie spotkanie, na którym to napisali! Problem w tym, że to nie żart, prawda? To jest ich faktyczny opis rozwoju.

Siri może robić wiele prostych rzeczy, takich jak sumowanie, sprawdzanie prognozy pogody i wysyłanie e-maili. Żądaj czegoś mocniejszego, a albo blokuje komunikat „Nie jestem pewien, czy rozumiem”, albo po prostu wyszukuje w sieci to, co powiedziałeś. Cóż, up-de-doo. Osobliwość ahoj.

Zobacz powiązane Dziesięć rzeczy, które Apple zabiło i dlaczego miał rację Recenzja Apple iPhone 6s: Solidny telefon, nawet lata po premierze

Pojawienie się botów typu „zrób to wszystko” – w tym Alexa Amazona, nadchodzącego asystenta Google, a nawet rywala pierwszego dewelopera Siri, zwanego Viv – rzuca niewygodne światło na bezcielesnego konsjerża iOS. Jeśli, jak mówią pogłoski, ma zostać ogłoszona jako ważna funkcja systemu OS X 10.12 Sensemilla*, możemy mieć tylko nadzieję, że nadchodzi milowy skok w inteligentnych rozwiązaniach. Ponieważ może mieć pewne wady, ale Siri nie pękła, będąc mądrą.

W jednym kierunku

„Ale to działa. Przeważnie. Jeśli mówisz jak spiker BBC.

Wspaniale, że istnieje technologia konwersji mowy na tekst. Nie tak świetnie, że technologia najwyraźniej nie pasuje do twojego telefonu, więc musi siedzieć w Karolinie Północnej, zużywając limit danych. Ale to działa. Przeważnie. Jeśli mówisz jak spiker BBC.

Następnie ten tekst można wydobyć w poszukiwaniu słów kluczowych, które można podłączyć do jednego ze źródeł informacji Siri, do których należą Apple Maps, Wolfram Alpha, Wikipedia i Microsoft Bing. (Na szczęście możesz zamienić Bing na prawdziwą wyszukiwarkę w Ustawienia | Safari | Wyszukiwarka. Jednak nie pytając Siri. To byłoby zbyt łatwe.)

Ale sposoby, w jakie Siri wykorzystuje te źródła, nie są sprytne. Kiedy otwieram Mapy i wpisuję „Whickham” w polu wyszukiwania, poprawnie znajduje listę miejsc w Whickham, małym miasteczku w pobliżu mojego zamieszkania. Wśród nich jest ogólny wpis dotyczący samego Whickham, zaznaczony tuż obok słowa „Whickham” na mapie Apple. Nawiasem mówiąc, skład jest piękny.

Nie powinienem naprawdę podziwiać składu podczas jazdy, więc zamiast tego mówię: „Hej Siri, jedź do Whickham”. W mgnieniu oka Siri znajduje High Wycombe w Buckinghamshire. To drugi koniec Anglii. Nie pyta mnie, czy to jest Wycombe, o którym myślałem; po prostu zaczyna kreślić trasę.

(To nie jest tak głupie, jak się wydaje. Kiedy pytam o drogę do „Waszyngton”, innego miasta w Tyne and Wear, oferuje mi Olympia w stanie Waszyngton, 4600 mil dalej. To nawet nie jest najbardziej prawdopodobny błędny Waszyngton.)

„Nie, Siri, Whickham, W-H-I-C-K-H-A-M.”

Teraz jest jeden całkowicie oczywisty sposób na rozwiązanie tego zamieszania: przeliteruj słowo. Więc próbuję: „Nie, Siri, Whickham, W-H-I-C-K-H-A-M”. Słyszy to doskonale i od razu ogłasza, że ​​nie może znaleźć pasujących miejsc. Od razu, pamiętajcie – nie chodźcie szukać źródeł. Tylko nie. Pamiętaj, że Whickham jest w Apple Maps, ten sam silnik, którego używa do pokazania mi High Wycombe.

Jedynym sposobem, w jaki w końcu dostanę się do Whickham, jest zapamiętanie nazwy ulicy tam (Front Street) i poproszenie o nią, a następnie wymyślenie innego sposobu, aby poprosić o to po tym, jak Siri pokaże mi niewłaściwą Front Street i ponownie nie oferuje alternatywy. Aby dodać zniewagę do kontuzji, wybrałem Front Street najbliżej mojej obecnej lokalizacji. Oczywiście.

Przepraszam, nie śledzę

Inne typy zapytań są traktowane z podobną głupotą. „Siri, jaka jest różnica między PKB Niemiec a Włochami?” Nie ma problemu – idzie i otrzymuje poprawną odpowiedź od Wolfram Alpha. Następnie próbuję zadać pytanie uzupełniające. Siri zwykł być śmieciem przy pytaniach uzupełniających, ale porzucił swoje pomysły, gdy pojawiła się wyszukiwarka głosowa Google i je pokonała. Możesz teraz zapytać „Jaka będzie pogoda w poniedziałek?” i dodaj „A może wtorek?” i jest w porządku. Lub pochmurno, w zależności od przypadku.

Więc kontynuuję: „A co z Francją?” Nie rozumie „Francji” jako „przyjaciół”. Ze wszystkich słów, które mógłbym powiedzieć, fakt, że właśnie wymieniłem dwa inne państwa europejskie, najwyraźniej nie dodaje wagi do możliwości, że miałem na myśli „Francję”. Wiodąca na świecie interaktywna sztuczna inteligencja, ludzie.

Mam 88-letniego krewnego, który jest bardzo głuchy. Kiedy powtarzasz coś, czego się przesłyszała, odgaduje inne słowo. Nadal może się mylić, ale nie odgaduje ponownie tego samego słowa, bo dlaczego miałbyś to powtórzyć? Powtarzam „A co z Francją?” trzy razy. Trzy razy Siri zwraca „A co z przyjaciółmi?” – Interesujące pytanie, Adamie – odpowiada pogodnie.

W końcu orientuję się, że muszę powiedzieć „Francja” z eleganckim akcentem (jestem z północy, więc „Francja” rymuje się ze „spodniami”). Siri wraca z numerem telefonu Elizabeth France CBE, który jest w moich kontaktach z czasów, gdy była Rejestratorem Ochrony Danych. Bo oczywiście chodziło mi o przypadkową osobę, do której biura dzwoniłem ostatnio 14 lat temu, a nie o kraj. (Kraj, który sąsiaduje z dwoma innymi krajami, o których właśnie wspomniałem.) I często mówię o ludziach po prostu po nazwisku. To całkowicie rzecz. — Siri, co z Carruthersem?

Śmietnik w

Rodzaj logiki, którego tutaj brakuje, nie powinien być trudny. Pod pewnymi względami już tam jest. Możesz powiedzieć – niespodziewanie, à propos de rien – „Hej Siri, Ivy jest moją siostrą”. Po sprawdzeniu, o którą Ivy masz na myśli, jeśli masz więcej niż jedną w kontaktach, Siri zapyta: „OK, chcesz, żebym zapamiętała, że ​​Ivy jest twoją siostrą?” Powiedz „Tak”, a w przyszłości możesz powiedzieć „Zadzwoń do mojej siostry”, aby zadzwonić do tego kontaktu.

Relacje rodzinne mają standardowe współzależności, więc naturalnie możesz następnie określić „Oliver jest synem Ivy”, a następnie powiedzieć „Siri, napisz do mojego siostrzeńca”, aby wysłać wiadomość do tego kontaktu. To nie jest nauka o rakietach, ale jest to miłe… poczekaj chwilę. Nie. Siri szuka w Internecie hasła „Oliver jest synem Ivy”. Nie może nawet zajść tak daleko.

„Najbardziej irytujące w Siri jest to, że jak na system zaprojektowany do słuchania, jest to taki zły słuchacz”.

Najbardziej irytujące w Siri jest to, że jak na system zaprojektowany do słuchania, jest to taki zły słuchacz. A to więcej niż tylko błąd. Nieuzasadniona beztroska, stanowcza odmowa kontemplacji własnej ignorancji są nieuchronnie symptomatyczne dla pychy Doliny Krzemowej.

Zrozumienie ludzkiej mowy i stojących za nią intencji jest ogromnym wyzwaniem nawet dla ludzi. Jako mówcy potykamy się o nasze słowa; jako słuchacze błędnie je interpretujemy. Większość każdej rozmowy delikatnie prosi o wyjaśnienie lub rozwiązanie niejasności.

Jednak Siri nie będzie tego miała. Mimo całej swojej konwersacyjnej okleiny po prostu przeszukuje nasze dane wejściowe pod kątem tych samych wyszczerzonych poleceń, które mogliśmy znaleźć w menu. Albo wie, czego chcemy, albo „nie rozumie”, pasywno-agresywny sposób powiedzenia „Nieprawidłowe dane wejściowe”. Nie ma nic pomiędzy.

„To takie Bay Area”, mówią teraz ludzie, gdy jakiś nadmiernie uprzywilejowany potentat technologiczny wpada na złożoną ludzką sprawę z uproszczonym rozwiązaniem niewłaściwego problemu. Równie dobrze moglibyśmy powiedzieć: „To takie Siri”.

*W takim razie udowodnij, że się mylimy

CZYTAJ DALEJ: Dziesięć rzeczy, które Apple zabił – i dlaczego to było słuszne