Apple научила ИИ понимать, что делает человек — без камер
Apple представила исследование, в котором ИИ определяет активность пользователя по звукам и движениям — даже без видео.
Модели анализируют расшифровки аудио и данные датчиков (акселерометр, гироскоп) и распознают, чем человек занят: готовит, тренируется, работает за компьютером, убирает, играет в футбол и т.д.
Технология основана на больших языковых моделях (LLM), которые объединяют разные типы данных. Даже без обучения они показывают высокую точность, а один пример «подсказки» резко улучшает результат.
Apple тестировала систему на данных Ego4D — тысячах часов видео от первого лица. ИИ успешно определял 12 типов повседневной активности.
Подписывайтесь на @arkanewsagency
Apple представила исследование, в котором ИИ определяет активность пользователя по звукам и движениям — даже без видео.
Модели анализируют расшифровки аудио и данные датчиков (акселерометр, гироскоп) и распознают, чем человек занят: готовит, тренируется, работает за компьютером, убирает, играет в футбол и т.д.
Технология основана на больших языковых моделях (LLM), которые объединяют разные типы данных. Даже без обучения они показывают высокую точность, а один пример «подсказки» резко улучшает результат.
Apple тестировала систему на данных Ego4D — тысячах часов видео от первого лица. ИИ успешно определял 12 типов повседневной активности.
Подписывайтесь на @arkanewsagency
Թողնել պատասխան