Vielleicht sollten Alexa und Google Assistant nicht besser darin werden, Sie zu verstehen
Sprachassistenten wie Google Assistant und Alexa gehören zum Alltag. Sie befinden sich auf Telefonen, Laptops, Wänden und steuern Smart Homes. Aber sie können schwierig zu verwenden sein, besonders für jemanden, der „nicht standardmäßiges” Englisch spricht. Compies versuchen, dieses Problem zu beheben, aber was ist, wenn das eine schlechte Sache ist?
Indem sie Sprachassistenten in Smart Homes und auf Smartphones benutzerfreundlicher machen, können Unternehmen tatsächlich die Fähigkeit ihrer Benutzer verringern, in der ganzen Welt zu funktionieren. Weltweit gibt es rund 1,35 Milliarden Englischsprachige, von denen 400 Millionen „ Muttersprachler ” sind.
Man kann also davon ausgehen, dass etwa 2/3 der englischsprachigen Personen einen gewissen Akzent haben, nur weil es nicht ihre Muttersprache ist. Dann haben Sie mit den 400 Millionen Menschen, die Englisch als Muttersprache sprechen, mehrere nationale Akzente (britisch, kanadisch, amerikanisch, australisch usw.). In jedem Land gibt es regionale Dialekte und so weiter.
Wenn Unternehmen einen einzigen Dialekt auswählen und perfektionieren würden, sagen wir American Standard English, wäre ihr Produkt nur von einem winzigen Bruchteil der Englisch sprechenden Personen nutzbar. Wenn sie dagegen zu weit gehen, könnten sie Menschen eines sehr nützlichen Werkzeugs zur Entwicklung ihrer Kommunikationsfähigkeiten berauben.
Wie versuchen Technologieunternehmen, die Dinge zu verbessern?
Tyler Nottley / Shutterstock.com
Seit es sie gibt, arbeiten Sprachassistenten daran, die Befehle ihrer Nutzer besser zu verstehen. Microsoft, Apple, Google und Amazon gehören zu den großen Namen, die eine Menge Ressourcen in ihre jeweiligen Sprachassistenten gesteckt haben und sie für möglichst viele Menschen zugänglich und frustrationsfrei machen wollen.
Dazu mussten Menschen mit bestimmten Akzenten eingestellt werden, um Hunderte von Sprachbefehlen und Konversationen aufzuzeichnen, die dann zum Unterrichten von KI-Dialekten verwendet werden können. Während eines meiner magereren Monate beschloss ich, meinen sexy nordischen Akzent zu nutzen, und verbrachte Stunden damit, Hunderte von scheinbar zufälligen Wörtern und Sätzen für eine Firma namens Appen aufzunehmen .
Diese Firma nahm dann meine Aufnahmen und schickte sie an Amazon, Google, Microsoft oder wer auch immer sie bezahlte. Die Sprachschnipsel werden dann theoretisch verwendet, um die KI zu verbessern, die das Unternehmen entwickelt, das sie gekauft hat.
Einige Sprachassistenten können sogar darauf trainiert werden, die genaue Stimme der Person, die sie verwendet, besser zu verstehen. Anders als darauf zu warten, dass große Techs ihr Spiel verbessern, führt dies zu sofortigen Ergebnissen und kann die Genauigkeit Ihres Sprachassistenten erheblich verbessern. Es ermöglicht auch mehreren Benutzern, auf ihre Smart-Home-Profile zuzugreifen, ohne manuell wechseln zu müssen.
Also, warum könnte das eine schlechte Sache sein?
Ich könnte damit durchkommen zu sagen: „Alexer, Serruz, Wecker für morgen acht Uhr, wirst du”, aber der Versuch, Songs anzufordern, ist der eigentliche Kampf. Es hat ungefähr drei Monate gedauert, mit Amazon Music zu kommunizieren, und ein paar tausend frustrierte Kraftausdrücke, aber jetzt kann ich so klar sagen wie ein BBC-Nachrichtensprecher aus den 1980er Jahren: „Spiel Happy Hour von The Housemartins”. Es gibt immer noch Fälle, in denen ich nach Paul Weller frage und irgendwie bei Ella Fitzgerald lande, aber es gibt immer Raum für Verbesserungen.
Der Silberstreifen, der mit den Akzentkämpfen einhergeht, ist die Tatsache, dass sich mein Englisch verbessert hat. Ich kann jetzt klarer kommunizieren als je zuvor. Das ist nützlich, weil sich die Technologie bis zu dem Punkt verbessern kann, an dem die KI auf meinem Smartphone mich verstehen kann – aber das wird mir nicht viel nützen, wenn ich das Telefon benutze, um mit einem anderen Menschen zu sprechen.
Ein weiterer Vorteil ist, dass ich meinen Akzent dabei nicht völlig zerstört habe. Wenn ich mich dafür entschieden hätte, stattdessen für Sprechstunden zu bezahlen, könnte ich Sätze in der erhaltenen Aussprache herunterrasseln. Identität ist wichtig; Akzente sind ein wichtiger Teil der Kultur und des Hintergrunds einer Person.
Das Vereinigte Königreich hat zum Beispiel alle paar Meilen einen deutlichen Akzent. Es gibt eine Karte, die seit einigen Jahren im Internet herumfliegt, die umfangreich aussieht, aber immer noch kaum an der Oberfläche kratzt. Ein winziger Teil des Nordostens wird als „Teesside”-Akzent bezeichnet, aber die Einheimischen jeder Stadt in diesem Gebiet (Middlesbrough, Hartlepool, Stockton und Billingham) sprechen alle unterschiedlich.
Stellen Sie sich nun die Variationen in einer Grafschaft von der Größe von Yorkshire vor. Die Menschen neigen auch dazu, sich mit ihrer Herkunft zu identifizieren und einen Großteil ihrer Kultur zu bewahren. Akzente machen einen großen Teil davon aus; nicht jeder will wie Hugh Grant klingen. Wir wurden in den letzten Jahren vielleicht verwöhnt, da sich viele Menschen jetzt gerne zurücklehnen und darauf warten, dass die Technologie ihre Mängel ausgleicht – und in vielen Fällen wird sie genau das tun. Aber manchmal ist es auf lange Sicht sowohl schneller als auch besser, sich mit Technik in der Mitte zu treffen.
Sprachassistenten müssen möglichst vielen Menschen zugänglich gemacht werden. Wenn Sie in perfekt empfangener Aussprache sprechen müssten, bevor Siri Ihnen die Tageszeit geben würde, wäre einer der bedeutendsten Erfolge von Apple für über 99,9 % der Englisch sprechenden Personen nutzlos.
Sogar so etwas wie ein amerikanischer Standardakzent würde die Mehrheit der Benutzer in den Vereinigten Staaten ausschließen, geschweige denn weltweit. Daher ist es offensichtlich, warum Unternehmen viel Mühe darauf verwenden, ihrer Software beizubringen, so viele Dialekte wie möglich zu verstehen. Und das sollten sie auch. Aber sie sollten nur so weit gehen.
Besser wäre es, wenn Apple, Google & Co. Vermeiden Sie es, eine perfektionistische Mentalität anzunehmen, und streben Sie stattdessen einfach einen Standard an, der Zugänglichkeit ermöglicht, aber dennoch ein wenig Sorgfalt von Seiten der Benutzer erfordert. Persönlich zwang mich Alexas Widerwille, auf etwas anderes als klare Sprache zu hören, darüber nachzudenken, wie ich Dinge ausspreche.
Meine Sprache ist zweifellos klarer als zuvor, als ich mich mehrmals täglich mit einem Sprachassistenten auseinandersetzen musste. Es war nicht etwas, was ich mir vorgenommen hatte; es war ein unbeabsichtigter und sehr nützlicher Nebeneffekt – und wenn es bei mir funktionierte, könnte es auch bei anderen funktionieren.