Liveöversättning kan peka på framtiden för Apple Glasses

Innehållsförteckning:

Liveöversättning kan peka på framtiden för Apple Glasses
Liveöversättning kan peka på framtiden för Apple Glasses
Anonim

Key takeaways

  • Nya tillgänglighetsfunktioner inkluderar livetextningar som genereras i re altid, för alla videor eller konversationer.
  • Om den här funktionen inte är gjord för Apples ryktade AR-glasögon, äter vi upp vår virtuella emojihatt.
  • Apple har en historia av att testa framtida produktfunktioner i nuvarande enheter.
Image
Image

Apples nya Live Captions lägger till undertexter i re altid till vad som helst, inklusive personen som står framför dig.

Precis som Googles koncept AR Glasses, tillkännagav den här veckan. Apples Live Captions kan ta emot inkommande ljud och transkribera det direkt. Skillnaden är att Apples version kommer att skickas "senare i år", vilket förmodligen betyder att den kommer att finnas i höstens iOS 16-utgåva. Men den verkliga nyheten här är att detta är Apples mest uppenbara stick hittills när det gäller att pröva framtida Apple Glasses-funktioner i klarsynt.

"Som någon som har två föräldrar som båda har svårt att höra, är detta till stor hjälp", skriver den Apple-centrerade journalisten Dan Moren på sin personliga Six Colors-blogg. "Jag är nyfiken på att se hur bra funktionen faktiskt fungerar och hur den hanterar ett stort FaceTime-samtal med många deltagare; Apple säger att det kommer att tillskriva dialog till specifika talare."

Snålhet

Live Captions, som vi kommer till om en sekund, är långt ifrån den första AR-glasögonfunktionen som Apple har testat. Det mest uppenbara är införandet av LIDAR-kameror i iPhones och iPads. Dessa skannrar hjälper till att skapa en exakt 3D-karta över världen utanför och låter iPhone lägga 3D-modeller över den verkliga världen som visas genom kameran.

Jag är inte säker på att vi kan lita på Apples liveöversättning bättre än Googles nya AR-glasögon, men jag tror att vi kan lita på att tävlingen kommer att hjälpa till att skapa de bästa resultaten.

Hintills har den här tekniken använts för att låta dig förhandsgranska nya Apple-datorer på ditt eget skrivbord, spela AR Lego-spel, testa IKEA-möbler i ditt vardagsrum och så vidare. LIDAR-hårdvara är så absurt överflödig i iPhones att den bara måste finnas där så att Apple kan finslipa hårdvaran och mjukvaran för en riktig AR-applikation: Apple Glasses.

Det är inte bara visuell AR heller. AirPods har lagt till snygga AR-funktioner i flera år nu. Det senaste, Spatial Audio, lurar våra hjärnor att tro att ljud kommer från alla omkring oss och är ett utmärkt sätt att titta på film eller lyssna på avkopplande ljudlandskap. Det är en fantastisk funktion, men den kommer att bli ännu bättre när den fungerar med Apples förväntade framtida glasögonprodukt. Att kunna placera ljud i ett 3D-utrymme för att matcha AR-objekten kommer verkligen att sälja illusionen.

Eller vad sägs om Live Text, iOS 15-tekniken som känner igen och läser text i foton, och live, genom iPhones kamera? Det är en annan funktion som är idealisk för att läsa skyltar, menyer och annan text genom AR-glasögon.

Live Captions

Live Captions tar tal från ett FaceTime-samtal, appar för videokonferenser, strömmande video och så vidare. Din telefon tar ljudet och transkriberar det direkt och ger undertexter, som du kan se i den här videon.

Det är bra, men det som är ännu bättre är att ingenting någonsin lämnar din iPhone. Texterna, säger Apple, genereras på enheten istället för att skickas till en server. Det här är inte bara mer privat, det är också mycket snabbare.

"Jag är inte säker på att vi kan lita på Apples liveöversättning bättre än Googles nya AR-glasögon, men jag tror att vi kan lita på att tävlingen kommer att bidra till att skapa de bästa resultaten", säger Kristen Bolig, grundare av SecurityNerd, till Lifewire via e-post."Nu när konkurrensen är offentlig och problemen med den här typen av teknik (privatitet, noggrannhet, etc.) är välkända, kommer båda företagen inte bara att vara i en kapplöpning om att skapa den bästa produkten först utan också att skapa den produkt som är bäst löser dessa problem."

Vi förväntar oss också någon form av inbyggd automatisk översättning som du kan få just nu med hjälp av tredjepartsappen Navi för att automatiskt översätta dina FaceTime-konversationer, eller kanske ett sätt att spara dessa transkriptioner under intervjuer för lättare åtkomst senare.

Vi har länge haft utmärkta tillgänglighetsfunktioner från Apple, vilket låter oss anpassa våra iOS-enheter i en nästan absurd utsträckning. Från att justera displayen för att göra färger och text lättare att se, till att kontrollera hela användargränssnittet med externa enheter, till att telefonen meddelar dig när någon ringer på dörren eller en leveransbil kommer utanför.

Nu får vi alla fördelarna med Apples ökade forskning om förstärkt verklighetsteknik. Vi kanske inte bryr oss om IKEA eller LEGO, och inte ens vill köpa ett par av Apples mytomspunna AR-glasögon, men det betyder inte att vi alla inte kan njuta av frukterna av den forskningen.

Rekommenderad: