AirPods z kamerami dla inteligencji wizualnej: rewolucja Apple w zakresie bezpieczeństwa osobistego?
Oto dlaczego umieszczenie kamer w AirPodsach przez Apple może być świetnym pomysłem
Abstrakcyjny:
- Według doniesień Apple wciąż pracuje nad integracją kamer ze słuchawkami AirPods.
- Inteligencja wizualna systemu iOS 18 jest sercem planów Apple.
- Funkcje te są wciąż „odległe o pokolenia”.
Od jakiegoś czasu wiemy „co” – Apple eksperymentuje z integracją kamer w AirPodsach – a teraz możemy poznać „dlaczego”. Nowy raport rzuca światło na plany Apple dotyczące przyszłych AirPodsów i jeśli technologia spełni obietnice, może okazać się naprawdę ważną funkcją bezpieczeństwa osobistego. Apple opracowuje AirPodsy z wbudowanymi kamerami, dzięki czemu staną się inteligentniejszym i bardziej funkcjonalnym urządzeniem.
Istnieje jednak ważne zastrzeżenie: funkcje te „miną jeszcze co najmniej pokolenia, zanim trafią na rynek”.
Raport pochodzi od dobrze powiązanego Marka Gormana z Bloomberg, który twierdzi, że „ostateczny plan Apple dotyczący inteligencji wizualnej wykracza daleko poza iPhone'a”. AirPodsy stanowią istotną część tego planu. Przecieki wskazują, że firma pracuje nad integracją kamer w AirPods, aby poprawić bezpieczeństwo osobiste.
Według Gurmana, inteligencja wizualna – rozpoznawanie otaczającego świata i dostarczanie użytecznych informacji lub pomocy – jest bardzo ważna w Apple i firma planuje wprowadzić aparaty zarówno do Apple Watch, jak i Apple Watch Ultra. Podobnie jak w przypadku AirPodsów, „pomoże to urządzeniu widzieć świat zewnętrzny i wykorzystywać sztuczną inteligencję do dostarczania istotnych informacji”. Doniesienia sugerują również, że Apple rozważa dodanie aparatów do swoich smartwatchy, aby zwiększyć możliwości inteligencji wizualnej.
W jaki sposób AirPods będą współpracować z inteligencją wizualną?
Funkcja Visual Intelligence, wprowadzona w systemie iOS 18 dla iPhone'a 16, pozwala skierować aparat na obiekt i dowiedzieć się o nim więcej: o gatunku rośliny, rasie psa (jak na zdjęciu na górze artykułu), godzinach otwarcia kawiarni, którą właśnie znalazłeś, i nie tylko. Technologia ta, znana również jako „inteligencja wizualna”, jest jedną z najważniejszych funkcji aktualizacji.
Inteligencja wizualna potrafi również tłumaczyć tekst, a w przyszłości może pomóc osobom z słabą pamięcią do imion i twarzy. Ta technologia może ułatwić codzienne życie wielu osobom.
Ale największym problemem z inteligencją wizualną jest to, że trzeba wyjąć telefon, żeby z niej korzystać. I są sytuacje, kiedy nie chce się tego robić. Pamiętam, jak Apple udostępniło Mapy na Apple Watch: umożliwienie korzystania z Map bez pokazywania wszystkim w okolicy komunikatu: „Nie jestem stąd i kompletnie się zgubiłem. Poza tym mam drogi telefon” było ważną funkcją bezpieczeństwa osobistego.
To samo może mieć miejsce. Jeśli Apple umożliwi wywołanie funkcji Visual Intelligence skinieniem głowy i stuknięciem w słuchawki AirPods, może to pozwolić na uzyskanie ważnych informacji – na przykład przetłumaczenie znaku kierunkowego w innym kraju – bez machania telefonem.
Do wprowadzenia tych funkcji wciąż daleka droga — nie spodziewajcie się ich w AirPods Pro 3, które prawdopodobnie pojawią się pod koniec 2025 roku. Ale jestem podekscytowany tą perspektywą: wyobraźcie sobie inteligencję Apple, tylko lepszą.
Możliwość dodawania komentarzy nie jest dostępna.