Refine
Year of publication
Document Type
- Article (1)
- Book (1)
- Part of a Book (4)
- Conference Proceeding (31)
- Contribution to a Periodical (8)
- Lecture (2)
- Internet Paper (1)
- Working Paper (3)
Is part of the Bibliography
- no (51)
Keywords
- 02 (3)
- 03 (1)
- 04 (1)
- 5G (2)
- AI (2)
- Architektur <Informatik> (1)
- Artificial intelligence (1)
- Auftragsabwicklung (1)
- Auto-ML (2)
- Beratung (1)
Institute
- Informationsmanagement (51) (remove)
Der Begriff „Digitaler Schatten“ steht für ein hinreichend genaues, digitales Abbild der Prozesse, Information und Daten eines Unternehmens. Dieses Abbild wird benötigt, um eine echtzeitfähige Auswertebasis aller relevanten Daten zu schaffen, um hieraus letztendlich Handlungsempfehlungen abzuleiten. Die Bildung des Digitalen Schattens ist damit ein zentrales Handlungsfeld von Industrie 4.0 und stellt die Grundlage für alle weitergehenden Aktivitäten dar.
Digitale Technologien sind ein wesentlicher Bestandteil der Wertschöpfungskette in der industriellen Praxis geworden. Die Digitalisierung hat die Produktion und den modernen Arbeitsplatz in den vergangenen Jahrzehnten auf eine Art beeinflusst, die mit keiner anderen technischen Entwicklung vergleichbar ist, und die nun der vierten industriellen Revolution den Weg ebnet.
Die Essenz von Industrie 4.0 ist die Vernetzung von Produktionssystemen mithilfe von IT und dem Internet der Dinge, um prognosefähig zu sein und die Produktion effizienter und flexibler zu gestalten. Wesentliche Befähiger dieser Vision sind Daten aus Prozessen, Anlagen und Ressourcen, aus denen für das Unternehmen entscheidungskritische Informationen gewonnen werden. Hieraus lassen sich Erkenntnisse ableiten, die bisher verborgene Wirkungszusammenhänge zutage fördern.
Prognosemodelle errechnen auf der Basis dieser Erkenntnisse mögliche Zukunftsszenarien und belegen sie mit Wahrscheinlichkeitswerten bezüglich ihres Eintritts. Durch die Vernetzung der Informationen unterschiedlicher Aufgaben, Funktionen und Domänen lassen sich Handlungsempfehlungen fundieren, wobei eine unüberschaubare Anzahl relevanter Parameter berücksichtigt wird. Der Produktion wird ähnlich dem Rennsport eine Ideallinie aufgezeigt, an der sie sich orientieren kann, um in kürzester Zeit optimierte Ergebnisse zu erzielen.
In recent years supply chain participants are increasingly suffering the effects of disturbances in transportation supply chains. Both, dynamics in consumer demands and global supply chains lead to a growth in unplanned supply chain events. These can cause from rather manageable disturbances through to complete break-downs of transportation chains, resulting in high follow-up and penalty costs.
Consequently, concepts for an efficient supply chain disturbance management are needed, preferably with a real-time identification and reaction to disturbance events. Therefore in the following paper the research results of the German research project Smart Logistic Grids with the focus on designing an integrated model for the real-time disturbance management in transportation supply networks are presented. This includes the introduction of elaborated classification models for disturbances and action patterns as well as an associated costs and performance measurement system. Finally, a procedure model for the disturbance management is presented.
Systematization models for taylor-made sensor system applications and sensor data fit in production
(2015)
Industrial digitalization to realize smart factories is driven by an informatory base of high-resolution data provided by sensor systems on the shop-floor level. The challenge of technical availability of fitting measurement solutions nowadays turns in a struggle of finding the optimal solution for a specific task in an ever-growing sensor market. This paper analyzes and specifies necessary models to systematically derive and describe organizational, technical and informatory requirements for sensor system applications increasing the technological fit for faster integration and lower misinvestment rates.
Systematization models for taylor-made sensor system applications and sensor data fit in production
(2015)
Industrial digitalization to realize smart factories is driven by an informatory base of high-resolution data provided by sensor systems on the shop-floor level. The challenge of technical availability of fitting measurement solutions nowadays turns in a struggle of finding the optimal solution for a specific task in an ever-growing sensor market. This paper analyzes and specifies necessary models to systematically derive and describe organizational, technical and informatory requirements for sensor system applications increasing the technological fit for faster integration and lower misinvestment rates.
Companies are transforming from transactional sales to providing solutions for their customers. Mostly, smart products, enabling companies to enhance their products by providing smart services to their customers, are a key building block in this transformation. However, the development of a smart product requires many digital skills and knowledge, which regular companies do not have. To facilitate the design and conceptualization of smart products, this paper presents a use-case-based information systems architecture prototype for smart products. Furthermore, the paper features the application and evaluation of the architecture on two different smart product projects. The use of such an architecture as a reference in smart product development serves as a huge advantage and accelerator for inexperienced companies, allowing faster entry into this new field of business. [https://link.springer.com/chapter/10.1007/978-3-031-14844-6_16]
With the development of publicly accessible broker systems within the last decade, the complexity of data-driven ecosystems is expected to become manageable for self-managed digitalisation. Having identified event-driven IT-architectures as a suitable solution for the architectural requirements of Industry 4.0, the producing industry is now offered a relevant alternative to prominent third-party ecosystems. Although the technical components are readily available, the realisation of an event-driven IT-architecture in production is often hindered by a lack of reference projects, and hence uncertainty about its success and risks. The research institute FIR and IT-expert synyx are thus developing an event-driven IT-architecture in the Center Smart Logistics' producing factory, which is designed to be a multi-agent testbed for members of the cluster. With the experience gained in industrial projects, a target IT-architecture was conceptualised that proposes a solution for a self-managed data-ecosystem based on open-source technologies. With the iterative integration of factory-relevant Industry 4.0 use cases, the target is continuously realised and validated. The paper presents the developed solution for a self-managed event-driven IT-architecture and presents the implications of the decisions made. Furthermore, the progress of two use cases, namely an IT-OT-integration and a smart product demonstrator for the research project BlueSAM, are presented to highlight the iterative technical implementability and merits, enabled by the architecture.
Industry 4.0 is driven by Cyber-Physical Systems and Smart Products. Smart Products provide a value to both its users and its manufacturers in terms of a closer connection to the customer and his data as well as the provided smart services. However, many companies, especially SMEs, struggle with the transformation of their existing product portfolio into smart products. In order to facilitate this process, this paper presents a set of smart product use-cases from a manufacturer’s perspective. These use-cases can guide the definition of a smart product and be used during its architecture development and realization. Initially the paper gives an introduction in the field of smart products. After that the research results, based on case-study research, are presented. This includes the methodological approach, the case-study data collection and analysis. Finally, a set of use-cases, their definitions and components are presented and highlighted from the perspective of a smart product manufacturer.
Künstliche Intelligenz (KI) hat sich über die letzten Jahre stetig zu einem Thema mit strategischer Priorität für Unternehmen entwickelt. Das zeigt sich nicht zuletzt in der gesteigerten Investitionsbereitschaft deutscher Unternehmen in KI-Projekte. Wirtschaftliche Akteure haben erkannt, dass durch eine sinnvolle Nutzung von KI-Technologien Wettbewerbsvorteile erzielt werden können. Die vorliegende Studie legt das Augenmerk auf den industriellen Einsatz einer KI-Technologie, die bereits heute von vielen Unternehmen erfolgreich genutzt wird: Die natürliche Sprachverarbeitung (engl. Natural Language Processing, kurz NLP). Die wirtschaftlichen Potenziale der Technologie liegen dabei in ihrer Fähigkeit, betriebliche Abläufe zu automatisieren und die Schnittstelle zwischen Mensch und Maschine zu verbessern und zu vereinfachen. Ziel der Studie ist es, die Potenziale der NLP-Technologie für Unternehmen nutzbar zu machen, indem konkrete Anwendungsfälle und allgemeine Handlungsempfehlungen sowie Nutzen und Risiken aufgezeigt werden.
Prinzipien zur erfolgreichen Umsetzung von KI-Geschäftsmodellinnovationen
In Zeiten des zunehmenden globalen Wettbewerbs und hoch vernetzter Wertschöpfungsketten entwickelt sich Künstliche Intelligenz zu einem immer wichtiger werdenden Wettbewerbsfaktor für Unternehmen am Wirtschaftsstandort Deutschland. Durch den Einsatz von KI-Verfahren können nicht nur interne Geschäftsprozesse kostensenkend optimiert, sondern auch neue, digitale Geschäftsfelder und -modelle erschlossen werden. Es lassen sich zum einen Trends identifizieren, denen der Einsatz von KI in deutschen Unternehmen folgt. Zum anderen zeigt sich, dass sich KI unterschiedlich stark auf verschiedene Dimensionen innovativer Geschäftsmodelle auswirkt. Insgesamt lassen sich so Prinzipien ableiten, die die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen beschreiben.
Neue Technologie- und Anwendungstrends kennzeichnen KI-Nutzung
Die tatsächliche KI-Landschaft in den Wertschöpfungsketten von KI-nutzenden Unternehmen ist durch Trends gekennzeichnet. Diese lassen sich in Technologie- und Anwendungstrends unterteilen. Experteninterviews zeigen beispielsweise, dass KI-Anwendungen bevorzugt auf Cloud-Infrastrukturen entwickelt und bereitgestellt werden. Das wiederum rückt die Frage nach der Wahrung der Datensouveränität in den Vordergrund. Anwendung findet KI tendenziell zur Prognose und Überwachung.
Sechs Prinzipien beeinflussen die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen
Fallstudien über ein breites Spektrum der deutschen Wirtschaft beleuchten, welche Aspekte eines KI-basierten Geschäftsmodells den größten Effekt auf das Unternehmen haben. Hier lässt sich ein besonders hoher Einfluss von KI auf das Nutzenversprechen neuartiger, digitaler Leistungen der Unternehmen an die Kundinnen und Kunden feststellen. So lassen sich sechs Erfolgsprinzipien zur erfolgreichen Implementierung von KI-Technologien identifizieren, um die wirtschaftliche Nutzung von KI für Unternehmen in Deutschland im globalen Wettbewerb weiter zu steigern. So empfiehlt es sich zum Beispiel – neben der Auswahl des richtigen KI-Anwendungsfalles – ebenfalls darauf zu achten, dass die KI-Anwendung sowohl den Anbietenden wie auch den Anwendenden nützt. Diese und weitere Erfolgsprinzipien werden detailliert in der Studie Künstliche Intelligenz – Geschäftsmodellinnovationen und Entwicklungstrends beschrieben.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.