Robotics and Biology Laboratory

Aravind Battaje

Sekretariat MAR 5-1
Raum MAR 5.065
SprechstundenNur nach Vereinbarung

Forschungsinteressen

Wie können biologische Lebewesen in der realen Welt so geschickt manövrieren und interagieren, während von uns geschaffene synthetische Lebewesen außerhalb strukturierter Umgebungen so unbeholfen sind? Eine der Schlüsselfragen ist unser grundlegendes Verständnis der Grenzen (wenn überhaupt) zwischen sensomotorischen Prozessen und der Außenwelt. In meiner Arbeit stelle ich einige dieser Grenzen in Frage. Ich habe zum Beispiel herausgefunden, dass das Betrachten eines Objekts während der Bewegung (Fixieren) einen hohen Nutzen bei Aufgaben hat, die das Suchen und Holen von Objekten beinhalten. Hier sind Wahrnehmung und Handlung (wie traditionell definiert) eng miteinander verbunden. Einerseits ist es wichtig, Grenzen zu erkennen.

Andererseits ist es wichtig, diese als Verhalten ausdrücken zu können und über einen rechnerischen Rahmen zu verfügen, der eine kohärente Verarbeitung von Informationen über die Zeit ermöglicht. Aus diesem Grund bin ich auch daran interessiert, die Prinzipien zu verstehen, die einer robusten Informationsverarbeitung für Wahrnehmungs- und Handlungsströme zugrunde liegen. Zurzeit analysieren wir visuelle Phänomene beim Menschen und erstellen gleichzeitig Computermodelle. Wir iterieren schnell durch Analyse und Synthese (von Modellen) visueller Phänomene, um die Merkmale eines robusten Informationsverarbeitungssystems für Wahrnehmung und Handlung zu definieren.

Kurzlebenslauf

  • Okt 2019 - heute
    Doktorand, TU Berlin

  • Aug 2017 - Mai 2019
    Master of Science, Georgia Institute of Technology

  • Sep 2013 - Jul 2017
    Senior Engineer (Computer Vision), Robert Bosch
  • Sep 2009 - Mai 2013
    Bachelor of Engineering, Siddaganga Institute of Technology

Persönliche Webseite: https://oxidification.com/

Projekt

© Felix Noak

Möglichkeiten und Folgen der rekursiven, hierarchischen Informationsverarbeitung in visuellen Systemen

Das Sehen von Robotern profitiert von den Erkenntnissen über die menschliche visuelle Wahrnehmung. Aber wie ist es umgekehrt? Könnte die visuelle Wahrnehmung von Robotern helfen, die menschliche visuelle Wahrnehmung besser zu verstehen? Mithilfe einer hierarchischen Funktionsarchitektur für synthetische Wahrnehmungssysteme untersuchen wir die menschliche Leistung und leiten daraus Prinzipien der robusten Informationsverarbeitung in Wahrnehmungssystemen ab. Auf diese Weise können wir gleichzeitig unser Verständnis des menschlichen Sehens verbessern und die zugrundeliegenden Prinzipien in das Sehen von Robotern einfließen lassen.

Betreute Abschlussarbeiten

Reducing Uncertainty in Kinematic Model Estimation by Fusing Audition and Vision

Amelie Froessl, June 2021

How can robots reliably estimate the state of mechanical objects around them? While visual estimation offers a way to precisely estimate the state of mechanisms such as drawers or doors, visual estimation also has its shortcomings. Occlusions or bad lighting conditions make it challenging or even impossible to tackle this problem just using vision. In this thesis we explore how audio can be used as a sensor modality that augments or even replaces visual estimation in settings that are challenging to vision.

Estimating Objectness From Motion and Appearance

Vito Mengers, July 2021

This thesis presents a method for estimating objectness in a visual scene by fusing information from motion and appearance. Two interconnected recursive estimators estimate objectness in a way tailored to kinematic structure estimation. The method shows improved objectness estimation and improvement in estimated kinematic joints. Further analysis provides insight into the connection between objectness and kinematic joints as well interconnected recursive estimation.

© RBO

Easy grasping with a fixated robot

Amon Benson

Humans interact with objects in the 3D world robustly without complicated 3D sensors like lidars. Instead they only have 2D sensors in the eyes. If compared (rather naively) to widely available camera sensors, the human retina has vastly diminished capabilities, such as resolution, refresh rate etc. How then can humans interact with the 3D world so robustly?

© RBO

Distance estimation using fixation and event camera

Juan Antonio Gómez Daza

Humans navigate and interact with the 3D world using only 2D eye sensors and exploiting regularities in 3D space. By using gaze fixation and specific movements, humans are able to extract relevant 3D properties of the world through 2D sensors that measure changes, somewhat like an event camera. In this project, find out how event cameras, can help robots interact with the 3D world as effortlessly as humans.

Publikationen

2023

[en] Battaje, Aravind; Brock, Oliver; Rolfs, Martin
An interactive motion perception tool for kindergarteners (and vision scientists)
i-Perception, 14 (2) :20416695231159182
März 2023
ISSN: 2041-6695
Mengers, Vito; Battaje, Aravind; Baum, Manuel; Brock, Oliver
Combining Motion and Appearance for Robust Probabilistic Object Segmentation in Real Time
2023 IEEE International Conference on Robotics and Automation (ICRA), Seite 683--689
IEEE
2023
Baum, Manuel; Froessl, Amelie; Battaje, Aravind; Brock, Oliver
Estimating the Motion of Drawers From Sound
2023 International Conference on Robotics and Automation (ICRA)
IEEE
2023

2022

Battaje, Aravind; Brock, Oliver
One Object at a Time: Accurate and Robust Structure From Motion for Robots
Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)
2022

2021

Battaje, Aravind; Brock, Oliver
Interconnected Recursive Filters in Artificial and Biological Vision
Proceedings of the DGR Days, Seite 32-32
2021