Refine
Document Type
- Book (3)
- Part of a Book (3)
- Conference Proceeding (5)
- Contribution to a Periodical (5)
- Master's Thesis (1)
- Internet Paper (2)
- Working Paper (4)
Language
- German (16)
- English (6)
- Multiple languages (1)
Is part of the Bibliography
- no (23)
Keywords
- 01 (1)
- 02 (2)
- 03 (1)
- ADAM (2)
- ADM-Systeme (1)
- AI (2)
- Additive Fertigung (1)
- Auto-ML (2)
- Big Data (2)
- Blockchain (1)
Institute
Die Umsetzung von KI-Projekten stellt Unternehmen vor große, unbekannte Herausforderungen und fordert von ihnen neue, häufig noch nicht vorhandene Kompetenzen. Für die erfolgreiche Umsetzung von Anwendungsfällen der Künstlichen Intelligenz ist ein Wandel der internen Kompetenzen eines Unternehmens essenziell. Insbesondere die Datenkompetenz – auch Data-Literacy genannt – ist ein fundamentaler Kompetenzbereich, der im Unternehmen gefördert und entwickelt werden muss.
Im Benchmarking zum Themenfeld „Monetizing Smart Products“ können Konzepte für Smarte Produkte und deren Vermarktung mit dem anderer Unternehmen verglichen werden, um wichtige Impulse für die Weiterentwicklung des digitalen Produktportfolios zu erhalten. Ziel des Benchmarkings ist die Identifikation von Unternehmen, die besonders erfolgreich Ansätze im Bereich der Monetarisierung Smarter Produkte umsetzen.
Um vertriebliche Herausforderung systematisch angehen zu können, hat das FIR das Innovationsprojekt „Vertriebsexzellenz für digitale Produkte & Services“ ins Leben gerufen. Im Rahmen dieses Innovationsprojekts werden gemeinsam mit einem branchen-übergreifenden Konsortium von Industriepartnern Strategien, Maßnahmen und Methoden abgeleitet, um einen messbaren Erfolg in der Vermarktung digitaler Produkte und Services zu erzielen.
Feasibility Analysis of Entity Recognition as a Means to Create an Autonomous Technology Radar
(2021)
Mit den neuesten Technologietrends auf dem Laufenden zu bleiben, ist für Fertigungsunternehmen eine entscheidende Aufgabe, um auf einem global wettbewerbsfähigen Markt erfolgreich zu bleiben. Die Erstellung eines Technologieradars ist ein etablierter, jedoch meist manueller Prozess zur Visualisierung der neuesten Technologietrends.
Der Herausforderung, Technologien zu identifizieren und zu visualisieren, widmet sich das Projekt TechRad, das maschinelles Lernen einsetzt, um ein autonomes Technologie-Scouting-Radar zu realisieren. Eine der Kernfunktionen ist die Identifizierung von Technologien in Textdokumenten. Dies wird durch natürliche Sprachverarbeitung (NLP) realisiert.
Dieser Beitrag fasst die Herausforderungen und möglichen Lösungen für den Einsatz von Entity Recognition zur Identifikation relevanter Technologien in Textdokumenten zusammen. Die Autoren stellen eine frühe Phase der Implementierung des Entity Recognition Modells vor. Dies beinhaltet die Auswahl von Transfer Learning als geeignete Methode, die Erstellung eines Datensatzes, der aus verschiedenen Datenquellen besteht, sowie den angewandten Modell-Trainings-Prozess. Abschließend wird die Leistungsfähigkeit der gewählten Methode in einer Reihe von Tests überprüft und bewertet.
Heutzutage steigen die Technologievielzahl und -vielfalt täglich an. Unternehmen, die sich im Zuge der Digitalisierung für die Einführung eines cyber-physischen Systems interessieren, müssen sich zu Beginn einen schnellen Überblick über den verfügbaren Technologiemarkt verschaffen, der sich stündlich ändert. Darauf ausgerichtet hat das Projekt TechRad zum Ziel, dieses Technologiescouting in Form eines plattformbasierten Radars zu automatisieren, welches eine permanent aktuelle Übersicht über verfügbare Technologien liefert. Die Befüllung der Plattform wird durch ein gezieltes Webcrawling nach Technologien realisiert. Das Entwicklungsvorgehen des Radars soll als Referenzmodell dienen, um zukünftigen Scouting-Plattformen einen Leitfaden zur schnellen und effizienten Entwicklung zur Verfügung zu stellen, und beinhaltet neben den technischen Vorgaben auch einen rechtlichen Rahmen, der bei dem Crawling von Daten berücksichtigt werden muss. Das Vorhaben IT-2-1-025a / EFRE-0801386 der Forschungsvereinigung FIR e. V. an der RWTH Aachen wird über den PTJ durch den europäischen Fond für regionale Entwicklung in NRW (EFRE) mit Mitteln der europäischen Union (EU) gefördert.
Künstliche Intelligenz (KI) hat sich über die letzten Jahre stetig zu einem Thema mit strategischer Priorität für Unternehmen entwickelt. Das zeigt sich nicht zuletzt in der gesteigerten Investitionsbereitschaft deutscher Unternehmen in KI-Projekte. Wirtschaftliche Akteure haben erkannt, dass durch eine sinnvolle Nutzung von KI-Technologien Wettbewerbsvorteile erzielt werden können. Die vorliegende Studie legt das Augenmerk auf den industriellen Einsatz einer KI-Technologie, die bereits heute von vielen Unternehmen erfolgreich genutzt wird: Die natürliche Sprachverarbeitung (engl. Natural Language Processing, kurz NLP). Die wirtschaftlichen Potenziale der Technologie liegen dabei in ihrer Fähigkeit, betriebliche Abläufe zu automatisieren und die Schnittstelle zwischen Mensch und Maschine zu verbessern und zu vereinfachen. Ziel der Studie ist es, die Potenziale der NLP-Technologie für Unternehmen nutzbar zu machen, indem konkrete Anwendungsfälle und allgemeine Handlungsempfehlungen sowie Nutzen und Risiken aufgezeigt werden.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
Methods of machine learning (ML) are notoriously difficult for enterprises to employ productively. Data science is not a core skill of most companies, and acquiring external talent is expensive. Automated machine learning (Auto-ML) aims to alleviate this, democratising machine learning by introducing elements such as low-code / no-code functionalities into its model creation process. Multiple applications are possible for Auto-ML, such as Natural Language Processing (NLP), predictive modelling and optimization. However, employing Auto-ML still proves difficult for companies due to the dynamic vendor market: The solutions vary in scope and functionality while providers do little to delineate their offerings from related solutions like industrial IoT-Platforms. Additionally, the current research on Auto-ML focuses on mathematical optimization of the underlying algorithms, with diminishing returns for end users. The aim of this paper is to provide an overview over available, user-friendly ML technology through a descriptive model of the functions of current Auto-ML solutions. The model was created based on case studies of available solutions and an analysis of relevant literature. This method yielded a comprehensive function tree for Auto-ML solutions along with a methodology to update the descriptive model in case the dynamic provider market changes. Thus, the paper catalyses the use of ML in companies by providing companies and stakeholders with a framework to assess the functional scope of Auto-ML solutions.
Anwendungsfälle wie intelligente Routenoptimierung und fortschrittliche Simulationsalgorithmen repräsentieren das riesige Einsatzspektrum von Methoden der künstlichen Intelligenz. Steigende Anforderungen an Liefertermintreue, Flexibilität und Transparenz wie bspw. Emissionsverfolgung, erfordern zunehmend den Einsatz von KI. Die Nutzung dieser Schlüsseltechnologie und die Hebung der Potenziale scheitern oft an der Komplexität in Bezug auf die Eingrenzung und Identifikation von wirtschaftlich relevanten Anwendungsfällen. Unternehmen müssen den Business Fit zwischen den wirtschaftlichen Erfolgsaussichten und den dafür benötigten digitalen Bausteinen herstellen. Mit dem Digital-Architecture Management lassen sich die relevanten KI-basierten Anwendungsfälle identifizieren und eine Roadmap aufbauen, um die datenbasierte Entscheidungsfähigkeit in der Logistik zu verbessern.