Trudniejsze, Niż Się Wydaje: Kiedy Apple Zaprezentuje Okulary Rozszerzonej Rzeczywistości

Prezes 6D.io i autor bloga Super Ventures zorientowali się w tym, dlaczego Apple lub jakiejkolwiek innej firmy jeszcze bardzo daleko do produkcji konsumpcyjnych AR-punktów. W tym materiale będę szczegółowo wiem, co musi się stać, zanim Apple (i jakakolwiek inna firma) może wydać punkty, które nam się spodobają.

Dokładne informacje o planach Apple nie mam, ale jestem dobrze zaznajomiony z niezbędnymi technologiami, mam mnóstwo znajomych, którzy widzieli wyniki Apple z AR, o których jeszcze nie ogłoszono publicznie. Mam wystarczająco dużo doświadczenia w branży technologicznej, aby zrozumieć, w jakich warunkach pojawiają się nowe platformy. Przede wszystkim trzeba określić efekt końcowy. Urządzenie z ARKit musi wyglądać jak modne okulary, które ludzie będą chcieli nosić publicznie.

Również ono powinno wyświetlać treści cyfrowych na szyby tak, jakby był częścią realnego świata. Ponadto, urządzenie musi być związane z ekosystemem App Store. Oczywiście, najpierw pojawią się produkty, które tylko częściowo odpowiadają tej definicji. Ale deweloperzy będą stopniowo ulepszać je, rozwiązując problemy pierwszych wersji.

W tym samym materiale chodzi oto o czym. Kiedy Apple może wydać własne AR-okulary, które „po prostu działają” i podobają się wszystkim?. W ogóle, jeśli chodzi o okulary, słuchawki lub hełmach, wartość najniższej skrót AR staje się niejasne.

Nie ma jednego zdania o tym, co to jest albo delikatnej HUD (Heads-Up-Display lub po prostu kask jak Oculus), a co to jest AR-okulary. W obu urządzeniach jest wyświetlacz, znajdujący się przed oczami użytkownika — może przez niego trzeba patrzeć, czy znajduje się on na uboczu, zamyka jedno oko lub oba, ale korzystać z nich trzeba inaczej. Marketingu stale nazywają AR-okulary kaski, a AR-okulary — wyświetlaczami rzeczywistości mieszanej lub wyświetlaczami.

Różnica jest prosta. Jeśli zawartość jest przywiązany do ekranu” — użytkownik obraca głowę, a zawartość pozostaje na ekranie, to znaczy, chodzi o HUD. Dobrym przykładem jest Google Glass lub Epson Moverio. Większość kasków — HUD, choć często można na nich zainstalować SDK do AR jak Vuforia i przekształcić w zwykłe AR-okulary.

Tak działa na przykład ODG. Sam HUD — nie AR. Jest to zwykły wyświetlacz, który „spadł” na głowę.

Jeśli zawartość jest przywiązany do realnego świata, jak w aplikacjach na smartfony, wykonanych na podstawie ARKit, lub w Hololens z Meta, to znaczy, że chodzi o AR-okularach. Urządzenie to jest bardzo trudne. HUD z soczewką, przez którą można oglądać, czujniki ruchu w sześciu płaszczyznach i wiele więcej. Dla ułatwienia identyfikacji napisany „przewodnik kupującego AR-punktów”, w którym wymienione są wszystkie urządzenia na rynku.

Aby wydać pełne AR-okulary, Apple (lub jakakolwiek inna firma) będzie musiała rozwiązać dość konkretne problemy. Ważne jest, aby uporać się z każdym. Całkiem możliwe, że to jest najważniejszy problem.

Okulary — bodaj czy nie najbardziej indywidualną albo delikatnej przedmiot. Przecież to prosto w twarz. To, co nosimy, wiele o nas mówi. U współczesnych projektantów punktów ograniczeń żadnych nie ma, problem w technologiach.

Pierwszym AR- trzeba płacić ludziom, aby nosili ich prototypy, bo nawet jeśli wszystkie problemy techniczne zostały rozwiązane, pozostaje pytanie projektu. Odpowiednia dla sektora konsumenckiego, na tyle jasny, aby używać go w świetle dziennym, która może wyświetlać obraz w wysokiej rozdzielczości i daje dużo szersze pole widzenia. Nie ma sensu produkować AR-produkt, który działa tylko w domu. Cały sens AR urządzeń w tym, że można je nosić jako część swojego codziennego garderoby.

Dlatego optyka musi pracować w słoneczne dni, a rozdzielczość potrzebujesz, aby czytać tekst. Pole widzenia dla AR mniej ważne niż dla VR, ponieważ urządzenia rozszerzonej rzeczywistości są wykorzystywane do wykonywania prostych codziennych zadań, i nie powinny zapewnić głębokie zanurzenie w grach. W głównym polu widzenia tu , ponieważ treści pokazywanych urządzeniem, nie powinien rozpraszać uwagę użytkownika od otaczającego świata.

Teraz możemy masowo produkować tylko OLED- z traktem. A to tylko jedna płaszczyzna ostrości. Minie jeszcze rok lub dwa, dopóki nie bardziej funkcjonalne wyświetlacze, a potem kolejny rok będzie potrzebny na to, aby nawiązać do ich masowej produkcji.

Kilka lat temu słyszałem historię o jednym bardzo w technice strategicznym inwestorem z dużej firmy-producenta sprzętu. On nie stał się inwestować pieniądze w Magic Leap na wczesnym etapie rozwoju firmy. Ale nie dlatego, że wyświetlacze wydawały mu się fałszywy — to nie tak, one już wtedy pracowali, a demo było świetne, po prostu wiedział, jak trudno będzie je produkować masowo, bez utraty jakości. Magic Leap, sądząc, te problemy nie zdecydowała — niedawno gazeta ” The Information donosił o tym, że starcie mógł przejść na inny rodzaj wyświetlacza, który łatwiejsze w produkcji.

Dlatego wojskowi nadal korzystać z OLED i drogi, a nie dlatego, że brakuje im finansowania. Ponadto, drogi bardzo tanie w produkcji (1-2 dolary za sztukę), jeśli są one formowane . Za projekt zwykle płacą kwoty, ale OLED- wysokiej rozdzielczości, które wcześniej kosztowały bardzo dużo, szybko staje się tańsze. Poza tym, nikt jeszcze nie był w stanie doprowadzić do masowej produkcji HMD do poziomu smartfonów.

„Żelazo” musi dostrzec „naturalne” polecenia użytkownika, a oprogramowanie — poprawnie je interpretować. Jest to bardzo ważne; jednak problem jest daleki od rozwiązania. I im dłużej o tym myślisz, tym bardziej skomplikowane ona wygląda.

Ludzie wydają mnóstwo sił na doprowadzenie do perfekcji poszczególnych trybów wprowadzania informacji (rozpoznawanie głosu, gestów, obrazów i tak dalej). Jednak nawet jeśli z jakimś z nich się to uda (co jest mało prawdopodobne), jednym trybem we wszystkich okolicznościach cieszyć się nie uda. Na przykład, odtwarzanie filmu lepiej zatrzymać, naciskając, a nie głosem. Przy tym publicznie zarządzać urządzeniem korzystne jest właśnie głosem, a nie gesty.

Dlatego, aby urządzenie było wygodne w użyciu (rzadkie błędy są dopuszczalne), potrzebna system sztucznej inteligencji, który będzie wybrać metodę interakcji, który najlepiej nadaje się do użytkownika w danym momencie. Teraz dalej tylko w tej dziedzinie posunął się badacz Mark . Wiadomo, że i Apple, Microsoft i Google pracują nad systemami . Ostatnio nawet była plotka o pierścieniu z funkcją przemieszczania się w przestrzeni.

Ich produkty w prosty sposób wyjdą na rynek około 9-12 miesięcy. AirPods, Siri i iPhone — chyba najlepszy przykład, jak-by- systemu wprowadzania, dostępna szerokim warstwom ludności. Telefon można obsługiwać jednym dotknięciem ekranu. lub mikrozestaw, a można — głosem. I mimo to, jest to bardzo prymitywny schemat, bo metoda wprowadzania wybiera człowiek, a nie AI.

W tej klasie urządzeń potrzebne są ergonomiczne czujniki i procesory, które dość dobrze pracują, spędzają mało prądu i nie przegrzewają się. Im łatwiej jest je zintegrować, tym więcej wolności będzie u projektantów. Przejście od „działa na moim telefonie” do „działa na moim przezroczystym wyświetlaczu” oznacza konieczność poważnego przełomu w konstrukcji sensorów i procesorów, zarówno pod względem stosunku mocy do mocy, jak i w odniesieniu do opóźnienia między obrotem głowy i ostatni obrazu ( z perspektywy nowego położenia głowy), który odpadł ekran.

Jeśli iPhone obsługuje niektóre AR-funkcje, to nie znaczy, że można je będzie po prostu przenieść na okulary. 3D-rekonstrukcja, aplikacje z uczeniem maszynowym, holistyczne rendering — wszystko to może działać na smartfonach, ale ze znacznymi kosztami zasobów zwykłego lub gpu. Ponadto, urządzenie nagrzewa się, a jego bateria szybko siada.

Aby przejść od „działa na smartfonie” do „działa w okularach” trzeba co najmniej 12 miesięcy. W niektórych przypadkach najlepszym rozwiązaniem może być opracowanie podczas chipa (na przykład, Apple specjalnie zrobiła chip W1, Movidius — CVGPU, a Microsoft wkrótce wyda HPU v2) — na to potrzeba jeszcze więcej czasu.

Czyli system musi być w stanie w czasie rzeczywistym zrozumieć strukturę i semantykę otaczającego świata. ARKit — to tylko początek, ponieważ może on dostrzec obiekty tylko z sześciu kątów widzenia i na jednej wspólnej powierzchni. Ludzie dopiero zaczynają zdawać sobie sprawę, jak ważne jest postrzeganie świata, a w pełni przyjęte przez społeczność ten problem będzie gdzieś przez 12 miesięcy. Nie ma sensu tworzyć AR-aplikacja, jeśli nie jest w stanie tak lub inaczej interakcji ze światem fizycznym.

Na tym polega definicja „AR-native”. Jeśli nie spoiwa z cyfrowych i fizycznych interakcji, czyli zwykłą aplikacją do smartfona człowiekowi byłoby to o wiele łatwiejsze w obsłudze. Gry planszowe, gry 3D dla płaskich blatów — idealny przykład tego, co można zrobić w AR.

Aby komunikować się ze światem, system musi rejestrować lub pobrać jego wirtualny model 3D. Jak twórcy rozwiążą ten problem, a ich systemy będą pracować poprawnie (w duchu Tango, Hololense i Potylicowym), powstanie nowy trudne pytanie. Jak wyprowadzić cały fajne treści 3D scenę, jeśli nie wiadomo, jaki ta scena będzie?. Teraz można używać najprostszych heurystycznych systemu, ale są zbyt prymitywne, tak, że deweloperzy będą musieli stworzyć własne.

Ktoś musi wymyślić dość proste i wygodne narzędzie proceduralne lokalizacji treści. Microsoft kilka lat temu była już udana próba — FLARE. Teraz najbardziej zaawansowanych narzędzi w tej dziedzinie cieszą się twórcy efektów specjalnych do filmów, które sprawiają, że wszystkie te proceduralnie generowane armii orków.

Istnieje jeszcze jeden starcie, która opracowała architektoniczny produkt z tej technologii, twórcy, którego jeszcze nie wiedzą, jak dostosować go do AR. Więcej nad problemem lokalizacji treści nie pracuje nikt. Jeden z zaawansowanych narzędzi — aplikacja na dużą skalę 3D rekonstrukcji w czasie rzeczywistym, do którego trzeba podłączyć kamerę głębokości.

Do utworzenia takiego produktu, pracującego bez czujnika głębokości, trzeba dziewięć miesięcy badań, a potem jeszcze trzeba będzie wydać 9-12 miesięcy na przygotowanie się do masowej produkcji. Teraz semantyczna segmentacja w 3D wygląda prymitywne. Realizowana jest ona na smartfonach z pomocą akademickiego kodu. Minie jeszcze kilka lat, zanim ona będzie nadawał się do wyjścia na rynek konsumencki.

Śledzenie położenia na dużych miejscach i integracja 3D kart takich jak Apple Maps wciąż opracowywane są. Ktoś zdążył już stworzyć działające produkty jak Google Tango VPS. Podstawowe wersje takich projektów pojawią się na smartfonach konsumentów jeszcze przez około 12 miesięcy.

Użytkownik powinien mieć możliwość uczestniczyć w AR- razem z kimś, albo dzielić się nimi. W czasach mojej pracy w firmie Dekko zrobiliśmy prawie pierwszej AR-gry dla iOS — Synchrotrons speed. W niej zawodnicy mogli zmierzyć się z prawdziwymi obiektami na stole. Kiedy gracze mogą zobaczyć samochody siebie, grać znacznie lepiej.

Teraz prawie każdy ma wersji demo i aplikacji w AR stworzone dla pojedynczej interakcji. Kiedy stanie na AR urządzenia będą u wszystkich, ludzie chcą się dzielić tym, co „widzą” w rozszerzonej rzeczywistości. Charlie Sutton i Cliff Warren z Samsung rozwiązać ten problem — ich pomysły, wcieliliśmy się w bardzo ciekawym pierwowzorze. Wygląda to tak.

Wyobraź sobie, że wirtualną czapkę z Snapchat można „nosić” cały dzień, i każdy właściciel AR-punktów (a nie tylko wybrane) będą mogli ją zobaczyć. Podstawowych technologii do tego wystarczy jednak SLAM na ulicy, na razie działa bardzo dobrze, plus, użytkownicy powinni mieć możliwość dzielenia się „SLAM-kart” ze sobą, aby być w jednym układzie współrzędnych. Teraz najlepiej z tym może poradzić sobie Tango VPS. I tak musi przejść przez co najmniej rok, zanim cały przemysł opanować tę technologię.

Konsumpcyjne interfejsów, aplikacji i interfejsów API, które także używają jej, że pojawią się jeszcze przez 6-12 miesięcy. A jednym z najbardziej spektakularnych przykładów z dostępnych teraz można nazwać Holoportation. Dla AR-rodem z HMD potrzebował własny interfejs.

Dlatego powstanie nowy paradygmat interakcji dla aplikacji, ponieważ przez ostatnie 40 lat właściwie korzystamy z jednym i tym samym biurkiem, który nie pasuje do AR. I to jest ogromny problem, bo nie można po prostu wyświetlać się przed oczami użytkownika siatkę 4×6 z ikon kwadratowych, przegląd. Z drugiej strony, jest to okazja, aby stworzyć zupełnie nowy ekosystem aplikacji, niezależną od iOS lub Android, bo praktycznie żaden z opublikowanych w ciągu ostatnich dziesięciu lat aplikacji nie pasuje do AR.

Co ciekawe, projektanci, zorientowani w przemysłowej konstrukcji, znacznie lepiej traktują AR, niż projektanci aplikacji lub projektanci gier — ostatnio to można tylko gorzej. Rzecz w tym, że przemysłowych projektantów uczą się rozwiązywać prawdziwe problemy prawdziwych ludzi za pomocą fizycznych produktów. W AR produkt-rozwiązanie po prostu pozostaje w cyfrowym świecie i, być może, staje się nieco bardziej interaktywne. Dalej tylko teraz w tej dziedzinie postępy wojenne.

Ich projektanci opracowali bardzo ciekawe interfejsy dla autonomicznych samochodów i gier 3D. Z bardziej lub mniej dostępnych AR-interfejsów najlepiej wygląda Hololens, ale mu jeszcze bardzo daleko do perfekcji. Badań naukowych w tym polu w zupełności wystarczy — największy wkład wniósł Doug Bowman, profesor projektowania 3D interfejsów z Technologicznego uniwersytetu Wirginii. Jednak pracy naukowców muszą wcielić się w produktach.

Podobno Apple w swoich laboratoriach opracowała całkiem realną interfejs 3D, który nawet działa. Powyżej przedstawione AR-interfejs Magic Leap. Niektóre elementy mieszczą się na ekranie ” (sterowanie muzyką w górnym lewym rogu, zegar), inne wydane „w świat” (YouTube i zabawka). Klient poczty e-mail może być i tym, i innych.

Wygląda interfejs jest bardzo wątpliwe. Jak zamknąć jedno „aplikacja” i przełączyć się na inny. Aby zamówić kawę za pośrednictwem aplikacji Stabucks, trzeba grzebać palcem w kubek. ekosystemu tu nie działa.

Potrzebna jest nowa ekosystem, wygodna i ciekawa. Jak ze smartfonami, uniwersalnego rozwiązania do AR nie istnieje. Potrzebny jest interfejs lub system rozpoznawania tekstu, która pozwala użytkownikowi przejść do trybu online i robić to, do czego był przyzwyczajony, unikalny dla AR sposób. Lista problemów był długi — i wszystkie je trzeba rozwiązać, zanim pojawią się prawdziwe AR-okulary.

Apple raczej nie pójdzie drogą Hololens i spróbuje to rozwiązać za pomocą jednego urządzenia. Przy tym sami Hololens — prawdziwy przełom. Jest to pierwszy produkt, który tak czy inaczej postanowił osiem problemów i ukazał się w sprzedaży dla firm.

Nigdy przedtem nie było tak, że Hololens to swego rodzaju Nokia Communicator od AR. Nie jest szczególnie użyteczne, ale, jednak, pokazując, że AR-punkty utworzyć możliwe. Tak, rozwiązania Microsoft bardzo proste i im daleko do doskonałości, ale opierać się firmy nie było na czym.

Najprawdopodobniej do tego, aby w końcu dotrzeć do tworzenia AR-punktów, Apple wybierze podwójne podejście. Jak wiadomo, ta firma w rozdziale wszystkim stawia na design i każdym swoim produktem decyduje się dokładnie jeden problem, ponieważ zachowanie użytkowników trudno jest zmienić raz. Oryginalny iPhone to dobry przykład, ponieważ w nim problem wprowadzania na smartfonach został rozwiązany poprzez multi-touch. To zmieniło wszystko. Pozostałe funkcje iPhone a już były w innych smartfonach na rynku.

Wyżej wymienione problemy można podzielić na dwie kategorie. Pierwsza — to technologie. Dotyczy to widzenie komputerowe, czujniki, SDK, narzędzia do projektowania w 3D i inne.

Druga — to projekt, i te problemy rozwiązać wcale nie jest łatwiej (co nie przeszkadza AR-społeczności je ignorować). W jakich przypadkach osób będzie korzystać z AR-produktami, jaki interfejs najlepiej, jak produkt wyraża osobowość właściciela — on nosi go na twarzy, jak on w ogóle potrzebny?. Technologiczne problemy można rozwiązać na platformie iPhone za pomocą stale rozwijającego się ARKit SDK. Markowe problemy Apple może rozwiązać z pomocą łączenia ich noszenia produktów (godzin, słuchawek, okularów bez ARKit i w pewnym sensie HomePod) w „konstelacja”, każdy element, który idealnie współpracuje z innymi.

Następnie dwie drogi połączą się i uzyskuje punkty z ARKit. Przed tym pojawi się wiele produktów-pośredników i , możliwości rynkowych, związanych z nimi. Produktów od Apple, jak i od pozostałych.

Telefony Blackberry, Nokia, Palm Pilot, były bardzo popularne w „przejściowe latach”, gdy łączyć się z internetem przez telefon ludzie już nauczyli się, jak iPhone i Androida jeszcze nie zaczęli dominować na rynku. ARKit bardzo ważny dla branży AR. Nie z powodu tego, że ten pomysł Apple przez swoich sprzedawców — po prostu teraz deweloperzy mają wysokiej jakości „pozycja z sześcioma stopniami swobody”, na podstawie której można tworzyć aplikacje dla AR.

Wszystko w AR jest zbudowany na podstawie tej wysokiej pozycji. Rejestracja danych cyfrowych w otaczającym świecie, nawigacja wewnątrz pomieszczenia i na zewnątrz, algorytmy 3D rekonstrukcji, zakrojone na szeroką skalę systemu śledzenia lokalizacji, zderzenie rzeczywistych i wirtualnych obiektów. Rozpoznawanie gestów. To działa tylko jeśli podłoże jest wystarczająco dobra.

Apple uruchomiła ARKit na platformie iPhone, doskonale zdając sobie sprawę, że obudowa urządzenia nie pasuje do AR, bo wielu przywódców jej zespołów, zajmujących AR, wiedzieli o tym jeszcze przed tym, jak zaczął pracować w firmie. ARKit wyszedł na iPhone, aby użytkownicy nie oczekują od AR dużo, bo pierwsza wersja ARKit — to bardzo ograniczona SLAM-system, chociaż ona swoje funkcje i wywiązuje się doskonale. Deweloperzy mają okazję nauczyć się tworzenia aplikacji dla AR, bo aplikacje dla zwykłych smartfonów i VR są robione zupełnie inaczej. A konsumenci patrzą na filmy demo na YouTube i zaczną uświadamiać sobie potencjał AR.

Apple wyświetla algorytmy na rynek z platformą w postaci urządzenia o najlepszym stosunku mocy CPU, GPU i czujników, nie próbując poradzić sobie ze wszystkimi problemami form factor przenośnych urządzeń. Technologia ARKit będzie wystarczająco dobra, aby utworzyć AR-punktów na jej podstawie tylko wtedy, gdy nauczy się tak śledzenia lokalizacji i lokalizacji na ulicy, a także tworzenia rekonstrukcji 3D z mnóstwem elementów w czasie rzeczywistym przez kamery RGB. To minimum dla realizacji AR, jak ją przedstawia publiczności.

Trzeba również rozwiązać technologiczną stronę problemu, wprowadzeniu. Deweloperzy rzadko się nimi zajmują, i to jest wielki błąd — w Apple i Snapchat na pewno to rozumieją. Zdaniem autora, tworzenie pełnych AR-punktów — jest to jednak raczej designerskie problem, niż techniczna, choć nad technologiami i trzeba solidnie popracować.

Jeśli umieścić technologii na czele, będzie jak w powiedzeniu o doprowadzenie oceanu do wrzenia i niektórzy producenci AR-urządzeń mogą to potwierdzić. Najbardziej skomplikowane problemy techniczne zostaną rozwiązane przed tym, jak twórcy i gdzie się jeszcze bardziej skomplikowane markowe pytań, jednak to właśnie projekt dyktuje to, jakie technologiczne problemy będą rozstrzygane w pierwszej kolejności. Myślę, że mam prawo twierdzić to, bo uczestniczył w wielu spotkaniach technologicznych ekspertów z lokowania projektantów i widziałem, jak oni podchodzą do rozwiązywania problemów AR.

„Miękkie” podejście Apple jest imponująca już teraz — AirPods można powiedzieć, że pierwszy udany AR-produktem, ponieważ to one decydują dwie krytycznie ważne dla AR-problemy punktów. Po pierwsze, pozwalają one na wygodne sterowanie głosem oprócz podstawowych dotknięć ekranu. Po drugie, dają możliwość „uzupełniać” otoczenie za pomocą dźwięków, na przykład, obejmować audioguide podczas wyprawy do muzeum. To sygnał AR.

Korzystaj ze słuchawek wygodne, nie przeszkadzają w codziennym życiu. Publiczność szybko się do nich przyzwyczaiłam, i w ciągu najbliższych 12 miesięcy na rynku na pewno pojawi się więcej „słuchawek z AI” (hearables) od innych producentów, zajmujących się AR. Są już zakupu odpowiednich firmach. Inna ważna cecha AirPods.

Istnieją oddzielnie od hipotetycznych punktów. Znaczy, w AR-okulary nie trzeba będzie wbudować głośniki, co wpływa na ich ostateczny rozmiar i cenę. Oczywiście, że nosimy kilku różnych punktów. Okulary, okulary do czytania, dla sportu i tak dalej. Więc dlaczego nie zrobić to samo z AR-okulary?.

Wszyscy w branży słusznie uznał, że ludzie nie będą kupować kilka na twarz komputerów na półtora tysiąca dolarów za sztukę tylko po to, aby wyglądać modnie. Jeśli jednak AR-okulary — to tylko trochę zmodyfikowane plastikowe pałąka ze szkłem, traktem, „” chipem W1 (może poradzić sobie z wideo) kamerą i IMU, koszt produkcji jednostki raczej nie przekroczy kilkudziesięciu dolarów. Ponadto, niedawno Tim Cook powiedział, że dla rozszerzonej rzeczywistości iPhone będzie „jeszcze bardziej ważny”.

A OLED- teraz — najlepsze rozwiązanie dla noszony urządzenia. Potem OLED- w zakresie HMD zastąpić bardziej zaawansowane technologie z wieloma poziomami ostrości i, być może, rzutem na siatkówce, ale to jeszcze nie teraz. W pierwszych AR-okularach Apple raczej nie będzie kamera. Staną się one raczej w dodatkowy interfejs, swego rodzaju Apple Watch do twarzy.

Jest logiczną kontynuacją polityki firmy. Jeden problem na raz (nowa obudowa wyświetlacza) i ponowne wykorzystanie już istniejących niestandardowych skryptów. Sądząc po informacji od ludzi, którzy trzymali w rękach i używane prototypy Apple, urządzeń nie było kamery. Dzięki naniesionym na 3D drukarce ramionom wyglądały całkiem przyzwoicie, jak Wayfarers od RayBan.

Wszystkie badane niestandardowe scenariusze dotyczyły prezentacji powiadomień. Technologia ta doskonale nadaje się do Siri lub Google Assistant i doskonale pracuje wraz z Airpods. Około dziewięć miesięcy temu autorowi mi wiadomo, że w planach marketingowych Apple na rok żadnych punktów nie było. Dlatego, najprawdopodobniej wyjdą w przyszłym roku (bez AR, ale z wyświetlaczem dla alarmów), a ten rok będzie odprowadzony pod marketing ARKit na iPhone.

Jest prawdopodobne, że w pierwszej wersji Apple Glasses będzie kamera (technicznych sprzeczności tu nie ma), ale to nie jest w duchu firmy, która zwykle najpierw wypuszcza prosty produkt, mający rozwiązać konkretny problem. W tym przypadku, aby zapoznać ludzi z wyświetlaczem. Najważniejszą zaletą Apple Glasses polega na tym, że są one tworzone przy udziale Marka . Tylko on wie, jak zrobić okulary fajne.

Przemysłowe projektanci w ogóle uważają okulary jednym z najbardziej skomplikowanych produktów, ponieważ wszyscy ludzie mają różne gusta i twarzy, a projekt powinien być prosty i czysty, tak, że zadowolić wszystkich się nie uda. Poza tym, Apple już całkiem nieźle grać na rynku mody. Apple Watch w tym zakresie były cennym doświadczeniem dla firmy.

Dokładne informacje o ich „żelazo” do tej pory znana nielicznym, ale ważniejsze jest to, że Beyonce założyła pierwszą wersję godzin na sesji zdjęciowej dla Vogue. Również Apple nauczyłam się sprzedawać różne kolory i paski (jak również wychodzić z jednym produktem w różne kategorie cenowe), aby ludzie mogli z ich pomocą wyrażać swoją osobowość. Żadna inna firma technologiczna działająca na AR, nie rozumie znaczenie tego.

Poza Snap, która szybko się uczy. AR-okulary — to w pierwszej i ostatniej kolejności, modny. Ten, kto się z tym nie zgadzam, najprawdopodobniej nadal idzie w Google Glass.

Ich projekt, promocja i cena musi to odpowiadać. Całkiem możliwe, że za kilka lat ludzie będą całymi dniami nosić Apple Watch razem z Apple Okulary i AirPods.

Być może, w torbach mają leżeć drugie pary okularów. I iPhone w kieszeni. Zegarki mogą być drobne urządzenia wejścia, naciśnij na ekran godzin, aby zareagować na to, co pojawia się na punkty”. Wchodząc do baru, można zdjąć okulary, i tak nie wypaść z pola informacyjnego, dzięki AirPods i Watch.

A jeśli będzie potrzeba, duży wyświetlacz i klawiatura, zawsze można dostać iPhone. Z okreslonymi ramy czasowe to nie takie łatwe. Apple Okulary bez ARKit może wyjść (wyświetlacz, podstawowe metody wprowadzania.

Zarządzanie w przeważającej części przez smartfon lub Airpods, aparatu nie ma) w 2018 roku. To będzie bardzo proste urządzenie (AR-przemysł . „Trywialne. Jaka stracona szansa!”) z naciskiem na modę, wiele opcji i w kilku kategoriach cenowych. Promować go będzie w tym przez magazyny mody.

ARKit na iPhone wzrośnie i będzie obsługiwać 3D-przebudowę i AR-projekty dla wielu użytkowników, a treści po renderingu będzie wyglądać bardziej realistycznie. Może być, kosztem rozpoznawania źródeł światła.

Wychodzą okulary bez ARKit, ale z kamerą do zdjęć i nagrywania wideo, jak w Spectacles od Snap. Wtedy też pojawi się bezprzewodowy chip W2, który obsługuje wideo. ARKit na iPhone zaczyna wspierać skalę śledzenie lokalizacji i mono-RGB 3D-remont. I głębiej integruje się z Apple Maps i Siri.

Najprawdopodobniej inna firma wyda swoją „pełną” wersję konsumpcyjnych AR-punktów, które będą działać całkiem normalne. AR dla przedsiębiorstw osiągnie obroty. Stanie pierwszy sukces aplikacji wykonanych na ARKit.

Wychodzi trzecia wersja okularów Apple z wielu problemów, które zostały rozwiązane, baterią lepiej, nowymi wyświetlaczami, system komunikacji bezprzewodowej, wprowadzania, interfejsem i tak dalej. ARKit też poprawia się — w zasadzie aby obsługiwać dużych obszarów i obecność większej liczby użytkowników w jednym AR-przestrzeni. Narzędzia do tworzenia treści stają się na tyle rozwinięte, aby je mogli łatwo korzystać prawie wszyscy deweloperzy. Ludzie skarżą się, że Apple traci rynek AR-punktów, ponieważ konkurenci zaczynają produkować swoje dobre produkty.

Linia produktów punktów z obsługą ARKit z powodzeniem wychodzi. Książka Rainbows End staje się rzeczywistością.

Co ARKit na nowych iPhone a. Przecież on tam będzie dobrze działać, a potem pojawi się jeszcze na stosie urządzeń. Tak. Jednak u AR na urządzeniach mobilnych jest wiele wrodzonych problemów z interfejsem (po pierwsze, te urządzenia trzeba trzymać rękami), a ARKit ograniczone możliwości platformy.

Istnieje wiele niestandardowych scenariuszy, w których telefon AR będzie działać dobrze, ale dziesiątki milionów użytkowników z powodu tej technologii nie pokochają. Świetnym starcie na ARKit dla iPhone stworzyć jeszcze można. W najbliższych latach, jest możliwe, zarabia setki milionów dolarów, ale w następujący Google nie będzie.

AR zawsze będzie produktem. Potencjał rynkowy technologii porównywalny z konsolami do gier (dziesiątki milionów urządzeń). Tak jak AR-punkty można porównać do wielkości rynku smartfonów (miliardy urządzeń)?. Jeśli traktować AR tylko jako rozrywki produkt (teraz patrzą na VR), obecność na rynku naprawdę będzie ograniczony.

Jednak u AR ma ogromny potencjał w zakresie komunikacji i prezentacji informacji. Właśnie dla tego ludzie używają swoich smartfonów, a jeśli AR-produkty będą wychodzić z doskonałym UX, dzięki czemu użytkownikom będzie łatwiej się komunikować i postrzegać świat, rynek AR rozszerzy się do rozmiarów . VR pozwala użytkownikowi „uciec” w wirtualnej przestrzeni, a AR poprawia się raz na całe życie człowieka — jedno tylko stosunek tych dwóch sfer przemawia na korzyść AR. Na „ucieczka” w światy książek, gier i telewizji ludzie spędzają po kilka godzin dziennie, ale większość czasu spędza na interakcję ze światem realnym.

To, jak dokładnie będzie nam łatwiej się komunikować, jest trudne do przewidzenia. Nie ma, jak VR-projekty (Spaces od Facebook lub RecRoom) i AR (Holoportation). Ja stawiam na AR, choć technologiczną podstawę tego zrobić, to będzie trudniejsze.

Dlaczego wszystkie te problemy rozwiąże to Apple, a nie inne firmy?. Microsoft wyprzedza wszystkich na kilka lat. Ponadto, ma wszystkie niezbędne oprogramowanie i „żelazo”, aby wygrać ten wyścig (system operacyjny, deweloperzy, Bing Maps 3D-grafika Xbox, partnerstwo z producentami, badania). Google osiągnięcia w dziedzinie AI i świetny ekosystem urządzeń.

Inne firmy, prawdopodobnie wypuszczą produkty z wszystkimi niezbędnymi funkcjami, które pozwolą nazwać ich konsumpcyjnych AR okularami. Ale nie będą mogli ich sprzedać, bo konsument będzie kierować się trendami mody. Mogę w dużej mierze się mylić.

Całkiem prawdopodobne, że Apple realizuje projekt, nie decydując się na wszystkie problemy technologiczne. Możliwe, że jeden z outsiderów przemysłu nagle sobie dominującą pozycję na rynku, jak to zrobiła w dziedzinie urządzeń mobilnych Google, wyprzedzając Microsoft, Intel i producentów PC. Tym outsiderem może stać się Snap lub garażowe firm — nawet Microsoft, jeśli będzie w stanie odzyskać utracone pozycje.

Takiego potencjału do gruntownej wstrząsy branży nie było już około dziesięciu lat. Skala dystrybucji i produkcji smartfonów i fakt, że ulepszona konstrukcja pojawia się w lepszej integracji „żelaza”, oznaczają, że w plusie będą firmy, które będą w stanie to wykorzystać. Klienci będą teraz kierować się modą, a paradygmat interakcji z aplikacjami radykalnie się zmieni — w takich warunkach zmienić rynek i udawać się będzie mógł każdy. Wyślij nam swoje kolumny o tym, jak zmieni się nasz świat, na future@vc.ru.

Dodaj komentarz