Key takeaways
- Conversation Boost fokuserar dina AirPods mikrofoner på personen du pratar med.
- För närvarande är detta en beta-firmware-funktion för AirPods Pro.
- Apples sensoriska förstärkning har gått bortom tillgängligheten.
Konversationsboost hjälper AirPods Pro-användare att bättre höra människorna prata mitt framför dem.
Apple testar Conversation Boost, en funktion för AirPods Pro som fokuserar mikrofonerna på personen framför dig, förstärker deras röst, utan att ta bort ljudet från världen omkring dig. För närvarande i betatestning fortsätter den här funktionen att sudda ut gränserna mellan augmented reality och tillgänglighet.
"Det här är definitivt en funktion som alla användare, även de med normal hörsel, skulle vilja ha eftersom vi ofta befinner oss i bullriga miljöer och detta förstärker de röster som vi bryr oss om samtidigt som de avvisar andra ljud," John Carter, tidigare chefsingenjör på Bose, berättade för Lifewire via e-post.
Hur Conversation Boost Works
Apple detaljerad konversationsboost under årets Worldwide Developer Conference keynote.
Den använder strålformande mikrofoner, som är mikrofoner som är designade för att kunna detektera riktningen och avståndet för inkommande ljud. I kombination med beräkningshjälp är det möjligt att fokusera på de ljud du vill ha och avvisa de du inte vill.
"Eftersom det finns en mikrofon i varje AirPod har du möjligheten att använda strålstyrning för att öka förståelsen och ljudnivån från en högtalare du skulle vilja höra, och minska brus och annat ljud från andra konversationer eller ljud, " säger Carter.
Detta är definitivt en funktion som alla användare, även de med normal hörsel, skulle vilja ha…
Tidigare lade Apple till Live Listen till iPhone, som låter dig använda telefonen som en fjärrmikrofon för att överföra konversationer till AirPods. Conversation Boost använder AirPods egna mikrofoner.
Nuligen lade företaget till Headphone Accommodations, som är ett sätt att finjustera ljudutgången från hörlurarna till din egen hörsel, vanligtvis genom att öka ljudfrekvenserna som dina öron inte längre uppfattar ordentligt.
Sammantaget kan man läsa detta som en fortsättning på Apples branschledande engagemang för tillgänglighet. Men det är också en imponerande demonstration av förstärkt verklighet.
Audio AR eller tillgänglighet?
Apple har inte gjort någon hemlighet av sin besatthet av AR. Det är ett vanligt inslag i Apples keynotes, och AR-vänlig teknik som LIDAR-kameror har lagts till även till till synes AR-ovänliga prylar som iPad Pro.
Det leder förmodligen allt mot vissa Apple AR-glasögon, men just nu är Apples AR-ljudfunktioner redan imponerande.
Siri kan till exempel läsa högt inkommande meddelanden, och i iOS 15 läser även aviseringar upp genom AirPods, så att du aldrig behöver titta på en skärm för att hänga med.
Också, AirPods antingen blockerar eller förstärker bakgrundsljud, så att du kan ta bort brus samtidigt som de släpper igenom viktiga delar.
Denna selektiva blandning av iPhone-ljud med verkligt ljud låter Apple inte bara kombinera de två, utan också plocka ut valda ljud från omvärlden, förstärka dem och sedan lägga till dem igen.
"[Jag] ser inte ut som att Apple [designade] de dubbla mikrofonerna för att skapa en riktad effekt (för optimal hörsel i brus-med och utan en brusreduceringsfunktion aktiverad) och/eller en minskning av ljudet bakom hörseln hjälpmedelsbärare, säger audionom Steve DeMari till Lifewire via e-post.
Fördelar för alla
Det har blivit något av en kliché att säga att tillgänglighet är en välsignelse, inte bara för personer med hörselnedsättning eller med nedsatt motorisk eller visuell förmåga, utan för alla.
Det är sant, det räcker inte långt. Eftersom det undersöker tillgänglighet, AR och även smart ljudbehandling (som att få HomePod att låta fantastisk), kan Apple erbjuda nya funktioner som kombinerar alla tre.
Detta i sin tur avstigmatiserar användningen av teknik för att förstärka våra sinnen. Hörapparater brukade vara (och är ofta fortfarande) rosa klumpar med en hunger efter engångsbatterier, men AirPods är en ambitiös produkt.
Och även om folk kanske skäms över att använda ett förstoringsglas för att läsa offentligt, bryr sig ingen om att använda förstoringsglaset på iPhone för att göra detsamma, eller ens att använda iOS 15:s nya Live Text-funktion för att översätta verkligheten text på språk som vi annars inte kan läsa.
Tillgänglighet har blivit mindre när det gäller att återställa nedsatta sinnen till ett tänkt genomsnitt. Det handlar nu mer om att använda teknik för att utöka våra sinnen till nivåer som tidigare varit omöjliga. Och det är bra för alla.