Künstliche Intelligenz
15. Juli 2025
TDK führt mit edgeRX Vision von TDK SensEI eine Lösung ein, um mithilfe von KI kleinste Produktfehler zu erkennen
TDK hat die neueste TDK SensEI-Produktlinie vorgestellt: edgeRX Vision, ein ultraschnelles, KI-gestütztes Fehlererkennungssystem, das Produktbilder oder -filme von Kunden analysiert und Komponenten mit einer Größe von nur 1 mm mit außergewöhnlicher Präzision identifizieren kann
Das System optimiert die Produktionseffizienz, indem es Fehlalarme reduziert und Ausfallzeiten minimiert, wobei es bis zu 2000 Teilen pro Minute erfassen kann.
Die TDK Corporation (TSE: 6762) hat mit edgeRX Vision heute die neueste Produktlinie von TDK SensEI vorgestellt.
edgeRX Vision ist ein Hochgeschwindigkeits-Fehlererkennungssystem, das Produktbilder oder -filme bei Kunden analysiert und selbst kleinste Komponenten – bis zu einer Größe von 1 x 0,5 mm² – mit außergewöhnlicher Präzision identifizieren kann.
Das System basiert auf fortschrittlicher KI und erkennt Fehler hochpräzise und in Echtzeit, wobei gleichzeitig deutlich Fehlalarme ausgelöst werden. In Verbindung mit der edgeRX-Plattform und den Sensoren von TDK SensEI verbessert edgeRX Vision die bestehende Hardware-Infrastruktur, um unnötige Maschinenstillstände zu minimieren und einen reibungsloseren, effizienteren Produktionsablauf zu gewährleisten. Bei einem Durchsatz von bis zu 2000 Teilen pro Minute können selbst geringfügig kürzere Ausfallzeiten den Umsatz erheblich steigern – was edgeRX Vision zu einer unverzichtbaren Lösung für Fertigungsumgebungen mit hohem Durchsatz macht.
Zu den wichtigsten Funktionen von edgeRX Vision gehören:
Hochpräzise Erkennung von Produktfehlern
Adaptives Lernen und kontinuierliche Verbesserung
Reduzierung von Fehlalarmen und falsch-negativen Meldungen
Skalierbarkeit über Produktlinien hinweg
KI-basierte Bildverarbeitung hat sich zu einer hochentwickelten und zuverlässigen Technologie entwickelt, die aufgrund ihrer Geschwindigkeit, Präzision und Anpassungsfähigkeit branchenübergreifend weit verbreitet ist. Moderne Systeme nutzen Edge-KI, um visuelle Daten in Echtzeit zu verarbeiten, was Latenzzeiten und die Abhängigkeit von Cloud-Infrastrukturen reduziert. Transformer-basierte Architekturen und einheitliche Modelle wie DINOv2 und SAM ermöglichen eine Vielzahl von Bildverarbeitungsaufgaben – wie Erkennung, Segmentierung und Klassifizierung –, ohne dass ein System aufgabenspezifisch umgeschult werden muss. Diese Systeme werden durch selbstüberwachtes Lernen und Few-Shot-Lernen auch label-effizienter, was die Kosten für die Datenaufbereitung senkt. Durch die Integration mit Sprachmodellen sind multimodale Funktionen hinzugekommen, sodass die Mensch-Maschine-Interaktion interaktiver wird. Angesichts dieser Verbesserungen und neuen Funktionen, die die Branche verändern, ist jetzt der entscheidende Moment für TDK SensEI, edgeRX Vision auf den Markt zu bringen. KI-gesteuerte Bildverarbeitungssysteme sind skalierbarer, robuster und kostengünstiger als je zuvor und damit unverzichtbar für Produktionsumgebungen mit hohem Durchsatz in der Praxis.
„edgeRX Vision wird unsere bestehenden automatischen optischen Inspektionsfunktionen (AOI) durch eine schnelle, KI-gestützte Fehlererkennung direkt am Edge weiter verbessern“, sagte Ken Takekawa, CEO von TDK Components USA. Das System kann selbst kleinste MLCCs mit einer Größe von nur 1 mm x 0,5 mm mit außergewöhnlicher Präzision erfassen. Durch den Einsatz von KI auf unserer bestehenden Hardware konnten wir die Gesamtbetriebskosten durch die Minimierung von Fehlalarmen erheblich senken. Dies führt zu weniger Maschinenstillständen aufgrund übermäßiger Inspektionen und damit zu einem deutlich höheren Produktionsdurchsatz. Bei Geschwindigkeiten von bis zu 2000 Teilen pro Minute führen selbst kleine Zeitersparnisse zu erheblichen Umsatzsteigerungen.“
„Die Einführung von edgeRX Vision ist ein wichtiger Meilenstein in unserer Mission, intelligente Automatisierung in die Werkshalle zu bringen“, sagte Sandeep Pandya, CEO von TDK SensEI. „Durch die Nutzung der Leistungsfähigkeit von KI ermöglicht edgeRX Vision eine präzise Fehlererkennung in Echtzeit, die die betriebliche Effizienz und Produktqualität verbessert. Diese Lösung arbeitet nahtlos mit unseren edgeRX-Sensoren zusammen und erweitert die Funktionen der edgeRX-Plattform, sodass Hersteller einen intelligenteren, stärker integrierten Ansatz für die Herausforderungen der Hochgeschwindigkeitsproduktion erhalten.“
Eigenschaften & Anwendungen
Hauptanwendungsgebiete
Elektronikfertigung
Pharmazeutische Industrie
Lebensmittel- und Getränke-Industrie
Haupteigenschaften und -vorteile
Verbesserte Produktqualität: Gewährleistet eine konsistente Erkennung von Fehlern und führt zu einer höheren Qualität der Produktion
Reduzierte Fehlalarme: Minimiert unnötige Ausschussware und sorgt für einen reibungslosen Ablauf der Produktionslinien
Erhöhter Durchsatz: Ermöglicht eine schnellere Inspektion ohne Einbußen bei der Genauigkeit und steigert so die Produktionseffizienz
Geringere Betriebskosten: Reduziert Arbeitskosten und Ausschussware durch die Automatisierung der Inspektion und die Minimierung von Nacharbeiten
Glossar
Edge-KI: Der Einsatz von KI-Modellen lokal in Geräten am Netzwerkrand (Edge), wodurch eine Echtzeit-Datenverarbeitung möglich ist, ohne dass Daten an die Cloud gesendet werden müssen
Transformer-basierte Architekturen: Eine Klasse von Deep-Learning-Modellen (z. B. Vision Transformers oder ViTs), die visuellen Daten mithilfe von Aufmerksamkeitsmechanismen verarbeiten und gegenüber herkömmlichen Convolutional Neural Networks (CNNs) eine verbesserte Leistung bieten
Unified Vision Models: KI-Modelle wie DINOv2 und Segment Anything Model (SAM), die mehrere Vision-Aufgaben (z. B. Erkennung, Segmentierung, Klassifizierung) ausführen können, ohne dass für jede Aufgabe separate Modelle erforderlich sind
Few-Shot Learning: Die Fähigkeit eines Modells, neue Aufgaben zu lernen oder neue Muster anhand einer sehr geringen Anzahl von Beispielen zu erkennen
Multimodale KI: Systeme, die verschiedene Arten von Daten – wie Bilder und Text – kombinieren, um Aufgaben wie die Beantwortung visueller Fragen oder die Bildbeschriftung auszuführen. Beispiele hierfür sind Modelle wie CLIP und BLIP-2
Falsch-positive/Falsch-negative Ergebnisse: Bei der Fehlererkennung liegt ein falsch-positives Ergebnis vor, wenn ein einwandfreies Teil fälschlicherweise als fehlerhaft gekennzeichnet wird, während ein falsch-negatives Ergebnis vorliegt, wenn ein fehlerhaftes Teil als einwandfrei gekennzeichnet wird
AOI: Automatische optische Inspektion
Kontaktieren Sie uns
Vertriebsnetz & Standorte
Wenn Sie sich für unsere Produkte interessieren, finden Sie hier eine Übersicht unserer weltweiten Verkaufsbüros, die Sie schnell und einfach kontaktieren können.