Beim Erkennen relevanter Ereignisse in der Umgebung (Person, Objekt, Handlung, …): Dynamisch die Drohne nachsteuern (Anderer Weg, Suchmodus, Details aufnehmen, …)
Archiv der Kategorie: Projektideen
Drohnen: Umgebung analysieren
Dynamische Auswertung der Umgebung von Drohnen: z. B. Objektdetektion
Hochautomatisierter Rollstuhl
Nutzbarmachen eines mit Sensorik und Rechenleistung ausgestatteten Rollstuhls, um automatisiertes Fahren zu erreichen.

Erkennen und Analysieren von Fußabdrücken
Dieses Projekt soll verschiedene Ansätze testen, um die Eigenschaften von Fußabdrücken zu analysieren. Es kann auf Vorarbeiten aufbauen.

Fernerkundung oder Remote Sensing
Zusammen mit Nicolas Weeger:
Remote Sensing beschreibt meist Informationsgewinnung aus größerer Entfernung. Konkret geht es hier darum, die Aufnahmen von Drohnen zu analysieren. Das geschieht mittels vorhandener Modelle, z. B. https://huggingface.co/ibm-nasa-geospatial oder durch Fine-Tuning vorhandener Modelle. Das Ziel ist es, zuverlässig die Beschaffenheit der Gebiete unter oder vor einer Drohne zu unterscheiden (Straße, Feld, Wald, Siedlung, …).
Analyse von Social Media Beiträgen
Zusammen mit Nicolas Weeger:
Um kurzfristige Trends schnell zu erkennen und automatisiert zu verarbeiten, soll in diesem Projekt verschiedene Social Media Kanäle ausgelesen werden. Konkret wären geeignete Kandidaten z. B. Instagram, Facebook, Bluesky oder TikTok, aber andere Kanäle können ebenfalls in Betracht gezogen werden. Die gewonnen Daten werden mittels existierender Large Language Modelle verarbeitet.
Webapp zur Demonstration von Computer Vision
Status: Bereits Abgearbeitet
Zusammen mit Nicolas Weeger:
Zu Demonstrationszwecken von Computer Vision Algorithmen soll eine Web-App basierend auf Flask oder Django und Streamlit umgesetzt werden. Die App wendet existierende und künftige KI-Modelle an. Das Training von Modellen ist nicht Bestandteil der App.
Personenverfolgung durch Turtlebot
Zusammen mit Christoph Saad:
Ein vorhandener Turtlebot https://www.turtlebot.com/ soll mittels Computer Vision eine Person erkennen und dieser folgen. Einige benötigte Funktionen sind im Robot Operating System ROS2 enthalten. Der Turtlebot wird zu Beginn mit dieser aktualisierten Software ausgerüstet. Danach können beispielsweise mittels OpenCV oder YOLO die fehlenden Elemente zur Personenverfolgung aufgebaut werden. Es gibt Vorarbeiten aus einem ähnlichen Projekt.
Autonomes Fahren eines Modellautos
Zusammen mit Christoph Saad:
In diesem Projekt soll ein mit den benötigten Sensoren ausgestattetes Fahrzeug https://mdynamix.de/mx-carkit-modellfahrzeug/ so weit wie möglich autonom navigieren können.
Visual Slam mit Leo Rover
Zusammen mit Christoph Saad:
SLAM (Simultaneous Localization and Mapping) bezeichnet die Fähigkeit eines Roboters oder Agenten, eine Karte seiner Umwelt zu erstellen und sich darin zu verorten. Dieser Vorgang wird oft mit LIDAR Sensoren durchgeführt. Ein Leo Rover ist mit einer 3D Kamera ausgestattet, die in diesem Projekt genutzt werden soll, um den Roboter im Raum zu orientieren.