Machine Learning
KI
Entwicklung

Plattform zur Generierung synthetischer Daten für Machine-Learning-Modelle

visynth.ai ermöglicht Unternehmen die Erstellung hochwertiger synthetischer Bilder zur Trainings- und Validierungszwecken von Computer-Vision-Modellen. Die Plattform wurde entwickelt, um Datenknappheit zu überwinden, die Modellleistung zu verbessern und den gesamten Workflow von der Datensatz-Integration bis zum Modelltraining zu optimieren.

Plattform zur Generierung synthetischer Daten für Machine-Learning-Modelle
Über das Projekt
Visynth.ai unterstützt Unternehmen dabei, fehlende Trainingsdaten durch die Generierung realistischer synthetischer Bilder für Machine-Learning-Modelle zu kompensieren. Die Plattform kombiniert Datensatz-Import, manuelle Annotation, KI-gestützte Datengenerierung und Modelltraining.
Architektur
Funktionen
Entwicklung

Hauptziele

Unser Team entwickelte Visynth.ai von Grund auf neu — inklusive Frontend-Entwicklung, Backend-Logik in Python sowie einer serverlosen DevOps-Infrastruktur auf AWS.

01
Skalierbare Architektur

Aufbau einer robusten, serverlosen Plattform, die große Datensätze, KI-Modellbereitstellung und komplexe Datenverarbeitungs-Workflows zuverlässig verarbeitet.

02
Datenaufbereitung

Ermöglicht den Import, die Organisation und präzise Annotation von Datensätzen, um hochwertige Trainings- und Testdaten für ML-Modelle bereitzustellen.

03
KI-gestützte Generierung

Konzeption und Implementierung einer automatisierten synthetischen Datengenerierung mit iterativer Verfeinerung und Human-in-the-Loop-Feedback zur Verbesserung der Modellleistung.

Herausforderung & Lösung
1

Herausforderung

Sicherstellen, dass die Plattform eingehende Datensätze präzise analysiert, hochrelevante und vielfältige synthetische Bilder erzeugt und gleichzeitig Datenqualität sowie Konsistenz gewährleistet.

arrow
2

Lösung

Entwicklung einer skalierbaren serverlosen Architektur mit AWS Lambda, SageMaker und Python, ergänzt durch maßgeschneiderte Frontend-Tools für Annotation und Feedback.

let-see-1

GenAI erkennt, was andere KI-Vision-Systeme übersehen

Gehen Sie über starre Vision-Systeme hinaus und setzen Sie auf adaptive GenAI, die Defekte, Abweichungen und versteckte Probleme erkennt, lernt und eigenständig darauf reagiert — weit über die Möglichkeiten klassischer Modelle hinaus.

let-see-2

Funktionen

Herausforderung & Lösung
Funktionen
01
Annotationstool

Ermöglicht die manuelle Markierung von Defekten mittels Polygonen, Kurven und Bounding Boxes. Sorgt für eine präzise Datenaufbereitung für das Training von ML-Modellen und die Bildgenerierung.

02
Konzepte

Benutzer können Defektvorlagen definieren und deren Form, Größe sowie Variationen konfigurieren. Diese Parameter steuern die Generierung realistischer synthetischer Bilder basierend auf projektspezifischen Anforderungen.

features
03
Feedback-Mechanik

Nutzer können generierte Bilder prüfen und Feedback geben. Das System regeneriert die Daten iterativ, bis die Ergebnisse den Erwartungen entsprechen.

Mit Visynth.ai können wir nun kleinste Defekte in der Produktion unserer Insulinpumpen in Echtzeit erkennen. Anfangs verfügten wir nur über sehr wenige Defektbilder, doch die Plattform generierte sämtliche relevanten Varianten.
James W., Qualitätsmanager
Führender Hersteller medizinischer Geräte

Branchen

Plattform-Einsatz
Potenzielle Kunden
  • industries-1
    Automobilindustrie

    Kratzer, Dellen oder Lackfehler treten häufig während der Montage auf. Synthetische Daten ermöglichen KI-Systemen, ein breites Spektrum an Defektszenarien zu erkennen, wodurch Nacharbeit reduziert und die Qualitätskontrolle verbessert wird.

  • industries-2
    Medizintechnik

    Produktionsfehler wie falsch ausgerichtete Sensoren oder Gehäuserisse sind bei tragbaren medizinischen Geräten keine Seltenheit. ML-Modelle, die mit synthetischen Defektvarianten trainiert wurden, erkennen Probleme frühzeitig und erhöhen die Patientensicherheit.

  • industries-3
    Luft- & Raumfahrt

    Oberflächenrisse, Korrosion oder Montageabweichungen treten häufig an Flugzeugkomponenten auf. Synthetische Bilder ermöglichen die Erkennung seltener, sicherheitskritischer Defekte und verbessern Inspektionsprozesse.

  • industries-4
    Schienenfahrzeuge

    Probleme wie Radflachstellen, Achsrisse oder Sensordrift treten im Schienenverkehr regelmäßig auf. Frühzeitige Anomalieerkennung verhindert kostspielige Ausfälle.

  • industries-5
    Elektronik & Halbleiter

    Lötfehler, Chiprisse oder falsch platzierte Bauteile sind mit begrenzten Datensätzen schwer zu erfassen. Synthetische Defektbilder trainieren KI-Modelle, auch seltene Fehler zuverlässig zu erkennen.

  • industries-6
    Verpackung & Fertigung

    Dellen, Verformungen oder Etikettierungsfehler entstehen häufig während der Produktion. Die Generierung synthetischer Varianten ermöglicht es KI-Systemen, fehlerhafte Produkte zuverlässig auszusortieren.

Vom initialen Datensatz
zu synthetischen Daten: Schritt für Schritt

Funktionsweise
Plattform
Entwicklung
from-initial-icon-1
Importieren
from-initial-icon-2
Analysieren
from-initial-icon-3
Generieren
from-initial-icon-4
Feinjustieren
from-initial-icon-5
Trainieren
from-initial-icon-1
Importieren
01
Datensatz importieren

Nach dem Hochladen der Bilder in AWS S3 können Nutzer den entsprechenden Datensatz innerhalb der Plattform auswählen.

from-initial-1
from-initial-icon-2
Analysieren
02
Arbeiten mit dem Annotationstool

Nutzer markieren Defekte oder relevante Objekte manuell mithilfe von Polygonen, Bounding Boxes oder benutzerdefinierten Formen. Für jede Klasse werden Schwarz-Weiß-Masken erzeugt, die später für das Modelltraining und die Datengenerierung verwendet werden.

from-initial-2
from-initial-icon-3
Generieren
03
Generierung synthetischer Daten

Die Plattform erzeugt iterativ Bilder auf Basis freigegebener Konzepte. Nutzer prüfen eine Stichprobe (z. B. 50 Bilder) und geben Feedback zu Qualität und Genauigkeit.

from-initial-3
from-initial-icon-4
Feinjustieren
04
Human-in-the-Loop & Optimierung

Das Feedback wird automatisch von den Algorithmen der Plattform verarbeitet. Es werden mehrere Varianten des Konzepts erzeugt, die sich anhand der Nutzerrückmeldungen kontinuierlich verbessern, bis der Kunde die Ergebnisse freigibt.

from-initial-4
from-initial-icon-5
Trainieren
05
Batch-Generierung für das Modelltraining

Nach der Freigabe erzeugt der Kunde große Batches synthetischer Bilder (Hunderte oder Tausende). Diese Bilder sind sofort exportierbar und für das Training von ML-Modellen geeignet.

from-initial-5
Projekte

Projekte
arrow-long-2
Datensätze

Der Nutzer beginnt mit der Einrichtung eines neuen Projekts, vergibt einen Namen und wählt die Quelle des Datensatzes aus. Dieser Schritt initialisiert den Arbeitsbereich und bereitet die Plattform auf die Verarbeitung der Bilddaten vor.

projects
turn
Datensätze in trainierte Modelle verwandeln – sofort & präzise
Datensätze
Dateien importieren
Entwicklung

Datensatz importieren

Nutzer importieren Bilder durch die Anbindung bestehender Speicherlösungen wie AWS-S3-Buckets. Die Plattform analysiert den Datensatz und extrahiert wichtige Informationen wie Bildanzahl, Klassen und Metadaten.

import

Klassen hinzufügen

Entwicklung
Funktionen
Klassen
01
Annotationstool öffnen

Der Nutzer wählt ein Bild aus dem importierten Datensatz und öffnet das Annotationstool, um Defektbereiche mit Polygonen zu markieren.

02
Definieren und markieren

Nutzer vergeben einen Namen für die neue Klasse und markieren relevante Defektbereiche im Bild. Mehrere Polygone können kombiniert werden, um komplexe Defekte oder Objekte präzise hervorzuheben.

03
Speichern und anwenden

Nach dem Speichern wird die Annotation auf den Datensatz angewendet und dieser für die Generierung synthetischer Bilder vorbereitet.

how-add
Konzepte

Konzept-Erstellung

01
Bilder auswählen & Defekt definieren

Auswahl einer Teilmenge von Bildern aus dem importierten Datensatz sowie Beschreibung des zu modellierenden Defekts mittels Prompt oder Text.

02
Trainingsdaten filtern

Ausschluss von Bildern mit fehlerhaften Annotationen oder irrelevanten Defekten zur Sicherstellung der Datenqualität.

03
Formparameter festlegen

Definition der Formparameter des Konzepts, einschließlich Polygonen, Kreisen oder Rechtecken, sowie Anpassung von Größe und Variation.

04
Vorschau generieren & prüfen

Nach der Erstellung des Konzepts werden Vorschaubilder generiert, die geprüft und kommentiert werden können.

concepts

KI-Optimierungsschleife

Datensätze
Design
Feedback

Nachdem der erste Satz synthetischer Bilder generiert wurde, prüfen die Nutzer eine Stichprobe und geben Feedback zu Qualität, Genauigkeit und Realismus. Die Plattform verarbeitet dieses Feedback automatisch, passt Formen, Variationen und die Platzierung von Defekten an und verbessert so nachfolgende Generationen. Dieser iterative Prozess wird fortgesetzt, bis der Nutzer mit dem Ergebnis zufrieden ist.

  • refinement-1
  • refinement-2
  • refinement-3

Batch generieren

Nachdem das Konzept verfeinert wurde und der Nutzer mit den Ergebnissen zufrieden ist, kann ein vollständiger Batch synthetischer Bilder erzeugt werden. Der Batch kann Hunderte oder sogar Tausende von Bildern umfassen, die alle auf dem freigegebenen Konzept und den definierten Defektvariationen basieren.

generate
model
Modelltraining

Nutzer können ML-Modelle mit Datensätzen und Batches trainieren, die in den vorherigen Schritten vorbereitet wurden. Sowohl annotierte als auch nicht annotierte Bilder sowie synthetische Batches können als Eingabedaten verwendet werden.

Wie wird das Modell trainiert?

Machine Learning
KI
Modelltraining
how-train
01
Trainingsdaten auswählen

Nutzer wählen Datensätze und/oder synthetische Batches aus, die dem Modell als Trainingsdaten zugeführt werden.

02
Training konfigurieren

Nutzer wählen Batches aus, bestimmen konkrete Bilder für das Training, definieren Klassen, wählen einen Datensatz und richten Validierungsschritte ein.

03
Training starten

Sobald alle Parameter festgelegt sind, ist das Modell bereit für das Training. Nach dem Klick auf den Start-Button beginnt der Trainingsprozess.

04
Ergebnisse bewerten

Nach Abschluss des Trainings können Nutzer Kennzahlen einsehen und beurteilen, wie zuverlässig das Modell Defekte erkennt.

Ergebnisse

Entwicklung
Plattform
Erfolge
final-results-1
final-results-icon-1
Starkes Frontend

Dank des intuitiven Workflows und des benutzerfreundlichen Annotationstools können Nutzer Defekte einfach markieren. Die Datensatzvorbereitung wird dadurch schnell, präzise und auch bei komplexen Bildern effizient.

final-results-2
final-results-icon-2
Python-basiertes Backend

Wir setzten AWS Lambda für serverlose Verarbeitung und SageMaker für die Bereitstellung von KI-Modellen ein. Diese Architektur bietet eine skalierbare, effiziente und wartungsarme Infrastruktur für Modelltraining und die Generierung synthetischer Bilder.

final-results-icon-3
DevOps & Infrastruktur

Wir implementierten eine vollständig serverlose AWS-Architektur mit automatischer Skalierung, Monitoring und sicherer Datenverarbeitung. Dadurch wurde eine zuverlässige Performance auch bei großen Datensätzen und hoher Batch-Auslastung gewährleistet.

final-results-3

Technologien

Backend
technologies-icon-1
Python
technologies-icon-2
FastAPI
technologies-icon-3
SQLAlchemy
technologies-icon-4
PostgreSQL
technologies-icon-5
Lambda
technologies-icon-6
ECS
technologies-icon-7
AWS SageMaker
technologies-icon-8
Docker
technologies-icon-9
Cognito
technologies-icon-10
Terraform
technologies-icon-11
OpenCV
Frontend
technologies-icon-12
Ant Design
technologies-icon-13
React
technologies-icon-14
TypeScript
technologies-icon-15
Vite