Apple undersöker hur man kan förbättra syrien för att bättre förstå människor som pratar med en stamning, enligt nya detaljer som delas av Wall Street Journal i ett stycke om hur företag utbildar röstassistenter att hantera atypiskt tal.
Apple har byggt en bank med 28 000 ljudklipp från podcaster med personer som stammar, som kan användas för att träna Siri. Data som Apple har samlat in kommer att förbättra röstigenkänningssystem för atypiska talmönster, enligt en Apple-talesman.
Tillsammans med att förbättra hur Siri förstår människor med atypiska talmönster, har Apple även implementerat en Håll för att prata-funktion för Siri som låter användare styra hur länge de vill Siri att lyssna efter. Detta förhindrar Siri från att avbryta användare med en stamning innan de är färdiga med att tala.
Siri kan också användas utan röst alla tillsammans, genom en Typ till Siri-funktion som först introducerades i iOS 11.
Apple planerar att beskriva sitt arbete för att förbättra Siri i en forskningsrapport som kommer att publiceras denna vecka, som kommer att ge mer information om företagets ansträngningar.
Google och Amazon arbetar också med att utbilda Google Assistant och Alexa för att bättre förstå alla användare, inklusive de som har problem med att använda sina röster. Google samlar in atypisk taldata, och Amazon lanserade i december Alexa Fund för att låta personer som har talnedsättningar träna en algoritm för att känna igen deras unika röstmönster.
Populära Inlägg