Домашняя » UI / UX » 8 Пользовательский интерфейс следующего поколения, который (почти) здесь

    8 Пользовательский интерфейс следующего поколения, который (почти) здесь

    Когда мы говорим о пользовательском интерфейсе (UI) в вычислительной технике, мы имеем в виду как компьютерная программа или система представляет себя своему пользователю, обычно с помощью графики, текста и звука. Мы все знакомы с типичной операционной системой Windows и Apple, где мы взаимодействуем с иконками на рабочем столе с помощью курсоров мыши. До этого у нас была текстовая строка командной строки старой школы.

    Переход от текста к графике стал серьезным скачком, инициированным основателем Apple Стивом Джобсом с его отличительной операционной системой Macintosh в 1984 году. В последние годы мы также стали свидетелями инновационного пользовательского интерфейса, в котором использовались сенсорные устройства (например, смартфоны), голос (например, Siri) и даже жесты (например, Microsoft Kinect). Они, однако, в значительной степени на начальных этапах развития.

    Тем не менее, они дают нам ключ к пониманию того, каким может быть следующая революция пользовательского интерфейса. Любопытно? Вот 8 ключевых особенностей того, каким может быть пользовательский интерфейс следующего поколения:

    1. Интерфейсы жестов

    В научно-фантастическом фильме 2002 года «Minority Report» изображено будущее, в котором взаимодействие с компьютерными системами происходит главным образом с помощью жестов. Том Круз, главный герой, в футуристических перчатках, совершает различные жесты руками, чтобы манипулировать изображениями, видео, таблицами данных в своей компьютерной системе..

    Десять лет назад могло показаться немного надуманным иметь такой пользовательский интерфейс, в котором пространственные движения обнаруживаются так плавно. Сегодня, с появлением таких устройств, как Wii Remote, в 2006 году, Kinect и PlayStation Move, в 2010 году, чувствительные к движению пользовательские интерфейсы будущего могут двигаться в этом направлении..

    При распознавании жестов ввод осуществляется в форме движения руки или любого другого тела для выполнения вычислительных задач, которые до сих пор вводятся через устройство, сенсорный экран или голос. добавление оси Z к нашему существующему двумерному интерфейсу несомненно, улучшит опыт взаимодействия человека с компьютером. Только представьте, сколько еще функций может быть сопоставлено с нашими движениями тела..

    Ну, вот демо-ролик о g-talk, прототипе компьютерного интерфейса, представленного в «Отчете о меньшинствах», разработанного Джоном Андеркоффлером, который фактически был научным консультантом фильма. Посмотрите, как он перемещается по тысячам фотографий в 3D-плоскости, используя жесты рук, и сотрудничайте с коллегами-«жестами» по командным задачам. В восторге? Underkoffler считает, что такой интерфейс будет коммерчески доступен в течение следующих пяти лет.

    2. Интерфейс мозг-компьютер

    Наш мозг генерирует все виды электрических сигналов с нашими мыслями, настолько, что каждая конкретная мысль имеет свою мозговую волну шаблон. Эти уникальные электрические сигналы могут быть отображены для выполнения определенных команд так что мышление мысли может на самом деле выполнить команду набора.

    В нейросетях EPOC, созданных Тан Ле, соучредителем и президентом Emotiv Lifescience, пользователи должны надеть футуристическая гарнитура, которая обнаруживает их мозговые волны, генерируемые их мыслями.

    Как вы можете видеть из этого демонстрационного видео, команда, выполняемая мыслью, довольно примитивна (т. Е. Тянет куб к пользователю), но обнаружение, похоже, сталкивается с некоторыми трудностями. Похоже, что этот интерфейс может занять некоторое время, чтобы быть должным образом развитым.

    В любом случае, представьте (отдаленное) будущее, где можно управляйте компьютерными системами одними мыслями. От концепции «умного дома», где можно включать или выключать свет, не выходя из постели по утрам, до идеи погружения в незабываемые игровые ощущения, отвечающие вашему настроению (посредством мозговых волн), потенциал для такого удивительного интерфейса практически безграничен.

    3. Гибкий OLED-дисплей

    Если сенсорные экраны на смартфонах жесткие и по-прежнему недостаточно чувствительны к вашим командам, то вы, вероятно, будете первыми, кто попробует использовать гибкие OLED-дисплеи (органические светодиоды). OLED - это органический полупроводник, который все еще может отображать свет, даже когда он свернут или растянут. Наклейте его на пластиковую сгибаемую подложку, и у вас появится новый и менее жесткий экран смартфона.

    Кроме того, эти новые экраны могут быть скручены, согнуты или сложены для взаимодействия с вычислительной системой внутри. Поверните телефон, чтобы увеличить или уменьшить масштаб, поверните угол, чтобы увеличить громкость, поверните другой угол, чтобы уменьшить его, поверните обе стороны, чтобы просмотреть фотографии и многое другое..

    Такой гибкий пользовательский интерфейс позволяет нам естественно взаимодействовать со смартфоном, даже когда наши руки слишком заняты, чтобы использовать сенсорный экран. Это вполне может быть ответом на чувствительность (или отсутствие таковой) экранов смартфонов к пальцам в перчатках или когда пальцы слишком велики, чтобы добраться до нужных кнопок. С этим интерфейсом все, что вам нужно сделать, это сжать телефон ладонью, чтобы ответить на звонок.

    4. Дополненная реальность (AR)

    Мы уже испытываем AR в некоторых наших приложениях для смартфонов, таких как Wikitude, но это в значительной степени на начальных этапах разработки. AR получает наибольший прирост осведомленности благодаря грядущей Google Glass Project, паре носимых очков, которые позволяют увидеть виртуальные расширения реальности, с которой вы можете взаимодействовать. Вот отличная демонстрация того, что ожидать.

    AR может быть на чем угодно, кроме очков, если устройство способно взаимодействовать с реальной средой в реальном времени. Представьте себе прозрачное устройство, которое вы можете удерживать над объектами, зданиями и окружающей средой, чтобы предоставить вам полезную информацию. Например, когда вы сталкиваетесь с иностранной вывеской, вы можете просмотреть стеклянное устройство, чтобы увидеть его в переводе для вашего удобства чтения..

    AR также может использовать вашу естественную среду для создания мобильных пользовательских интерфейсов, с которыми вы можете взаимодействовать, проецируя дисплеи на стены и даже своими руками.

    Посмотрите, как это делается с SixthSense, прототипом носимого жестового интерфейса, разработанного MIT с использованием AR.

    5. Голосовой интерфейс пользователя (VUI)

    С момента презентации Криса Шмандта «Put That There» в 1979 году распознавание голоса еще не достигло революционного успеха. Самая последняя реклама VUI - Siri, приложение для личных помощников, которое встроено в iOS от Apple. Он использует пользовательский интерфейс на естественном языке для своей функции распознавания голоса, чтобы выполнять задачи исключительно на устройствах Apple.

    Однако вы также видите это как акт поддержки в других технологиях пользовательского интерфейса, таких как Google Glass. Стекло работает в основном как смартфон, только вам не нужно держать его и взаимодействовать с ним пальцами. Вместо этого цепляется за вас как очки и получает ваши команды с помощью голосового управления.

    Единственное, чего сейчас не хватает в VUI - это надежность распознавания того, что вы говорите. Совершенствуйте это, и это будет включено в пользовательские интерфейсы будущего. С учетом того, что возможности смартфонов расширяются и развиваются в настоящее время, только вопрос времени, когда VUI займет центральное место в качестве первичная форма взаимодействия человека с компьютером для любой вычислительной системы.

    6. Материальный пользовательский интерфейс (TUI)

    Представьте себе компьютерную систему, которая объединяет физическую среду с цифровым царством, что позволяет распознавать объекты реального мира. В Microsoft Pixelsense (ранее известной как Surface) интерактивная вычислительная поверхность может распознавать и идентифицировать объекты, размещенные на экране..

    В Microsoft Surface 1.0, свет от объектов отражается на несколько инфракрасных камер. Это позволяет системе захватывать и реагировать на предметы, размещенные на экране.

    В расширенной версии технологии (Samsung SUR40 с Microsoft PixelSense) экран содержит датчики, вместо камер, чтобы определить, что касается экрана. На этой поверхности вы можете создавать цифровые картины с кистями на основе ввода фактической кисти.

    Система также запрограммирован распознавать размеры и формы и взаимодействовать со встроенными тегами например Помеченная визитная карточка на экране будет отображать информацию о карте. Смартфоны, размещенные на поверхностях, могут привести к тому, что система отобразит изображения в галерее телефона на экране без проблем..

    7. Носимый компьютер

    Как следует из названия, носимые компьютеры электронные устройства, которые вы можете надеть на себя как аксессуар или одежда. Это могут быть перчатки, очки, часы или даже костюм. Ключевой особенностью носимого интерфейса является то, что он должен держи руки свободными и не помешает вашей повседневной деятельности. Другими словами, это будет служить вторичная деятельность для вас, как и когда вы хотите получить к нему доступ.

    Думайте об этом как о наличии часов, которые могут работать как смартфон. Ранее в этом году Sony уже выпустила SmartWatch на базе Android, который можно подключить к вашему телефону Android через Bluetooth. Он может предоставлять уведомления о новых электронных письмах и твитах. Как и во всех смартфонах, вы можете загружать совместимые приложения в Sony SmartWatch для легкого доступа.

    Ожидайте более удобного пользовательского интерфейса в ближайшем будущем, так как микрочипы, обладающие интеллектуальными возможностями, станут наноразмернее и будут вписываться в повседневную одежду.

    8. Интерфейс пользователя сенсорной сети (SNUI)

    Вот пример гибкого пользовательского интерфейса, где у вас есть несколько компактных плиток, состоящих из цветных ЖК-экранов, встроенных акселерометров и инфракрасных приемопередатчиков IrDA, которые способны взаимодействовать друг с другом в непосредственной близости. Давайте сделаем это просто. Это как плитки скрэббл, которые имеют экраны, которые будут меняться для отображения данных, когда они расположены рядом друг с другом..

    Как вы увидите в этом демонстрационном видео Siftables, пользователи могут физически взаимодействовать с плиткой путем наклона, встряхивания, подъема и удара это с другими подобными плитками. Эти плитки могут служить очень интерактивным инструмент обучения для маленьких детей, которые могут получить немедленную реакцию на свои действия.

    SNUI также отлично подходит для простые логические игры, в которых игровой процесс включает в себя сдвиг и вращение плиток побеждать. Тогда есть также возможность сортировать изображения физически, группируя эти плитки вместе в соответствии с вашими предпочтениями. Это TUI с большим количеством людей; вместо одного экрана он состоит из нескольких небольших экранов, которые взаимодействуют друг с другом.

    Самый ожидаемый пользовательский интерфейс?

    Поскольку этот пользовательский интерфейс становится более интуитивно понятным и естественным для пользователей нового поколения, мы имеем дело с более захватывающим компьютерным опытом, который будет постоянно проверять нашу способность усваивать поток знаний, которыми они должны делиться. Это будет ошеломляющим, а порой и захватывающим, и это определенно что-то, чего можно ожидать от новых технологий.

    Больше!

    Хотите узнать, что нас ждет в будущем? Проверьте ссылки ниже.

    • 5 лучших приложений дополненной реальности для образования
    • 5 основных функций, которые стоит ожидать в будущих смартфонах
    • Чудесные видео TED, которые вы не должны пропустить

    Какой из этих удивительных интерфейсов вас больше всего волнует? Или у вас есть другие идеи для пользовательского интерфейса следующего поколения? Поделитесь своими мыслями здесь в комментариях.