Перейти к содержимому

 

Фотография

Создан интерфейс нового типа, позволяющий просто и эффективно управлять действиями роботов


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 7

#1 bubasa

bubasa

    Персона

  • Пользователи
  • 5 933 сообщений
  • Проживает:Россия

Отправлено 19 май 2017 - 20:53

У нас и без роботов так жахнуло по рабочим местам

 

20170428_2_1.jpg

Управление действиями роботов, традиционно, осуществляется при помощи компьютера с мышью или специализированного контроллера, напоминающего пульт дистанционного управления радиоуправляемыми моделями. Используя элементы управления на пульте или движения мышью по экрану компьютера, человек-оператор управляет движениями робота и его исполнительных органов, имеющих шесть степеней свободы, действуя в трех пространственных измерениях. Качественное управление роботом при таком подходе требует наличия у оператора достаточного опыта в этом деле, который набирается только при помощи достаточно длительного процесса обучения и тренировок.

Но в ближайшем будущем различные робототехнические устройства должны прочно войти в нашу повседневную жизнь. И для этого будет требоваться, чтобы управление их действиями было не сложнее, чем управление работой простейших бытовых приборов. В связи с этим многие исследовательские группы работают над разработкой интерфейсов новых типов, назначением которых является упрощение процесса управления роботами. Не так давно мы рассказывали о такой системе, разработанной в Нью-Йоркском университете (New York University), в которой используется мобильный телефон или планшетный компьютер с камерой и специализированная система дополненной реальности.

Разработка подобной системы была закончена недавно и специалистами из Технологического института Джорджии. Во многом функции этой системы схожи с функциями системы, о которой было упомянуто чуть выше, обе системы позволяют просто указать роботу объект и обозначить операцию, которую с ним необходимо выполнить. А более примитивные действия, такие, как перемещения самого робота и его исполнительных органов, выполняются автоматически при помощи использования библиотеки стандартных алгоритмов.

Метод управления, используемый специалистами из Джорджии, основан на использовании всего одной камеры, установленной на роботе, данные от которой используются для составления трехмерной карты окружающей среды. Все остальное делается сложными алгоритмами, работающими в процессоре системы управления роботом, который сам определяет форму объекта воздействия, точки его захвата и траектории перемещения.

"Более того, система управления роботом на основе имеющихся данных может вынести предположения о форме объекта в тех областях, которые не попадают в поле зрения его камеры или скрыты другими объектами" - пишут исследователи, - "Это делается таким же образом, как это делает человек, представляя себе заднюю часть бутылки, к примеру, когда он смотрит на нее спереди".

Для испытаний эффективности работы нового интерфейса управления исследователи привлекли студентов, которые никогда не имели дела с роботами и их управлением. Перед студентами была поставлена задача выполнить при помощи робота определенные действия, используя традиционный способ управления в одном случае, и новый интерфейс - в другом. На выполнение задачи отводилось достаточно мало, около двух минут времени, и, выполняя задачу традиционным путем студенты допускали за это время в среднем по четыре грубых ошибки. При использовании нового интерфейса некоторые из студентов изредка допускали максимум одну ошибку, что говорит об эффективности нового подхода.

"Разрабатывая новую систему управления, мы переложили на плечи робота выполнение всех простейших действий" - пишут исследователи, - "И такой подход сработал на все 100 процентов. Люди, не имеющие никакого опыта работы с роботами стали способны эффективно управлять их действиями, производя достаточно привычные им манипуляции и действия мышью на экране компьютера".

А на приведенном ниже видеоролике мы предлагаем нашим читателям самостоятельно ознакомиться с принципами новой системы управления действиями роботов и вынести оценку эффективности ее работы.

 

 

http://www.dailytech...mi-robotov.html


Сообщение отредактировал Муся: 19 май 2017 - 21:11
заголовок


#2 Максим Максимыч

Максим Максимыч

    Ёж просвещённый

  • Пользователи
  • 780 сообщений
  • Проживает:Воронеж

Отправлено 20 май 2017 - 01:26

А чего тут нового-то?


  • фыр поблагодарил(а) автора

#3 Пушкинъ

Пушкинъ

    Персона

  • Пользователи
  • 5 366 сообщений
  • Проживает:Владивосток

Отправлено 20 май 2017 - 03:09

Прогресс не остановить. Да и не надо.
Вкалывают пусть роботы, а не человек.

#4 Строгий

Строгий

    Джентльмен

  • Пользователи
  • 2 004 сообщений
  • Проживает:Россия

Отправлено 20 май 2017 - 05:26

А чего тут нового-то?

 

Если судить по видео, суть в том, что задаётся только желаемый конечный результат действий, все остальные действия (расчёт траектории движения, команды управления инструментом, и пр.) происходят автоматически. Задаётся с планшета, на реальной картинке.

 

Сейчас же, для того, чтобы "заставить" робот что-либо сделать, нужно в специальной программе привязать объект к системе координат робота, запрограммировать конкретную траекторию движения с учётом координат инструмента, в определённых точках этой траектории указать команды управления инструментом, и пр. При этом, например, если на заданной траектории будет какое-либо препятствие, получим столкновение манипулятора и аварийный останов. Тут же, видимо, траектория генерируется динамически, с учётом нюансов.

 

В общем, реально "управление роботом для домохозяек".



#5 Максим Максимыч

Максим Максимыч

    Ёж просвещённый

  • Пользователи
  • 780 сообщений
  • Проживает:Воронеж

Отправлено 20 май 2017 - 12:30

 

А чего тут нового-то?

 

Если судить по видео, суть в том, что задаётся только желаемый конечный результат действий, все остальные действия (расчёт траектории движения, команды управления инструментом, и пр.) происходят автоматически. Задаётся с планшета, на реальной картинке.

 

Сейчас же, для того, чтобы "заставить" робот что-либо сделать, нужно в специальной программе привязать объект к системе координат робота, запрограммировать конкретную траекторию движения с учётом координат инструмента, в определённых точках этой траектории указать команды управления инструментом, и пр. При этом, например, если на заданной траектории будет какое-либо препятствие, получим столкновение манипулятора и аварийный останов. Тут же, видимо, траектория генерируется динамически, с учётом нюансов.

 

В общем, реально "управление роботом для домохозяек".

 

 

Это я понимаю, не понимаю, в чем "новизна". Это же робот. Он по определению должен обладать некоторой автономностью, которая как раз и заключается в том, что у него есть задание (или ряд заданий), которые он и выполняет самостоятельно. А если ты должен задавать координаты каждого перемещения, как в первом случае, то это никакой не робот, а просто механизм с некоторым интерфейсом управления. Какой-нибудь станок ЧПУ никто ведь не называет роботом.



#6 Строгий

Строгий

    Джентльмен

  • Пользователи
  • 2 004 сообщений
  • Проживает:Россия

Отправлено 20 май 2017 - 14:27

Это я понимаю, не понимаю, в чем "новизна". Это же робот. Он по определению должен обладать некоторой автономностью, которая как раз и заключается в том, что у него есть задание (или ряд заданий), которые он и выполняет самостоятельно. А если ты должен задавать координаты каждого перемещения, как в первом случае, то это никакой не робот, а просто механизм с некоторым интерфейсом управления.

 

Такая точка зрения, возможно, имеет право на жизнь, но вот, например такие фирмы как ABB, KUKA, FANUC считают иначе. А они, уж поверьте, знают толк в конструировании роботов. :)

 

Задача робота — получив программу (координаты перемещений, команды на определённые манипуляции в заданных координатах) для разных типов объектов, выполнять эту программу с заданной точностью за заданное время. Чтобы задать эти координаты и команды, нужен человек. И тут есть два пути: либо писать программу (координаты и команды) на основании матмодели объекта в специальной программе, эмулирующей физическую модель робота (этот процесс и показан в ролике в правом экране — из-за того, что точно спозиционировать инструмент не удалось, захват не получился), либо, что называется, в натуре: подводя манипулятор к реальному объекту, и записывая определённые точки координат и команды управления инструментом. Они же, я так понял, свели весь этот процесс к команде "взять ручку" (условно). В этом и есть новизна.



#7 Максим Максимыч

Максим Максимыч

    Ёж просвещённый

  • Пользователи
  • 780 сообщений
  • Проживает:Воронеж

Отправлено 20 май 2017 - 15:51

 

Это я понимаю, не понимаю, в чем "новизна". Это же робот. Он по определению должен обладать некоторой автономностью, которая как раз и заключается в том, что у него есть задание (или ряд заданий), которые он и выполняет самостоятельно. А если ты должен задавать координаты каждого перемещения, как в первом случае, то это никакой не робот, а просто механизм с некоторым интерфейсом управления.

 

Такая точка зрения, возможно, имеет право на жизнь, но вот, например такие фирмы как ABB, KUKA, FANUC считают иначе. А они, уж поверьте, знают толк в конструировании роботов. :)

 

Задача робота — получив программу (координаты перемещений, команды на определённые манипуляции в заданных координатах) для разных типов объектов, выполнять эту программу с заданной точностью за заданное время. Чтобы задать эти координаты и команды, нужен человек. И тут есть два пути: либо писать программу (координаты и команды) на основании матмодели объекта в специальной программе, эмулирующей физическую модель робота (этот процесс и показан в ролике в правом экране — из-за того, что точно спозиционировать инструмент не удалось, захват не получился), либо, что называется, в натуре: подводя манипулятор к реальному объекту, и записывая определённые точки координат и команды управления инструментом. Они же, я так понял, свели весь этот процесс к команде "взять ручку" (условно). В этом и есть новизна.

 

 

Это никакая не новизна. Это просто развитие того же самого интерфейса. Вот, собственно эти два подхода:

 

1) подведи манипулятор к точке XYZ, закрой захват, подними вверх.

2) распознай в области точки XYZ продолговатый предмет, расчитай положение манипулятора, а дальше - как в первом случае.

 

т.е. просто возложили на робота еще одну функцию, упрощающую работу. Это можно назвать усовершенствованием интерфейса, но не новым интерфейсом. На мой взгляд, конечно.



#8 Строгий

Строгий

    Джентльмен

  • Пользователи
  • 2 004 сообщений
  • Проживает:Россия

Отправлено 20 май 2017 - 17:27

Это никакая не новизна. Это просто развитие того же самого интерфейса. Вот, собственно эти два подхода:
 
1) подведи манипулятор к точке XYZ, закрой захват, подними вверх.
2) распознай в области точки XYZ продолговатый предмет, расчитай положение манипулятора, а дальше - как в первом случае.
 
т.е. просто возложили на робота еще одну функцию, упрощающую работу. Это можно назвать усовершенствованием интерфейса, но не новым интерфейсом. На мой взгляд, конечно.

 

В общем, тут смотря что считать интерфейсом. Если исходить из определения "Интерфейс — способ взаимодействия человека и техники", то подход в виде простой команды "робот, возьми вон ту фиговину" посредством клика на картинке вместо прямого задания координат и команд, вполне можно назвать новым способом взаимодействия человека и техники.

Это как если вместо руля голосовое управление у машины сделать. Функция та же — поворот колёс в разные стороны, но интерфейс (способ взаимодействия) совсем другой.






Количество пользователей, читающих эту тему: 0

0 пользователей, 0 гостей, 0 анонимных пользователей

Copyright © 2017 Усадьба Урсы