000 Informatik, Informationswissenschaft, allgemeine Werke
Refine
Year of publication
Document Type
- Bachelor Thesis (1)
- Book (1)
- Part of a Book (2)
- Conference Proceeding (2)
- Contribution to a Periodical (8)
- Master's Thesis (1)
- Moving Images (1)
- Report (3)
- Working Paper (19)
Language
- German (29)
- English (4)
- Multiple languages (5)
Is part of the Bibliography
- no (38) (remove)
Keywords
- 01 (3)
- 02 (2)
- 3PhasenKonzept (1)
- 5G (3)
- 5G-Monitoring (2)
- 5G-Netze (2)
- 5G-Potenziale (2)
- 5G-Technologie (2)
- ADAM (1)
- Agile Softwareentwicklung (1)
Institute
Seit April letzten Jahres ist synyx immatrikuliert im CCI, dem Center Connected Industry an der RWTH Aachen (https://connectedindustry.net/). Unter dem Schlagwort EDA4DFA (Event-Driven Architectures for DemoFabrik Aachen) unterstützt synyx das CCI dabei, Transparenz in Prozesse im produzierenden Gewerbe zu bringen. Das synyx-Knowhow in den Bereichen Agile Softwareentwicklung, Eventgetriebene Architekturen, Domain-driven Design, Event Storming etc. kommt hier zum Tragen.
Am 8. März gab es im Rahmen des EDU4DFA-Projekts einen Workshop vor Ort bei synyx. Bei dieser Gelegenheit hat Sebastian Kremer vom FIR (https://www.fir.rwth-aachen.de/) den synyxer:innen im schule@synyx-Slot den Stand der Forschung erläutert, um damit einen Außenblick auf synyx aus Sicht der Forschung zu geben. Die Aufzeichnung dieses Vortrags stellen wir gern gemeinsam zur Verfügung.
Die rasante Entwicklung der 5G-Kommunikationstechnologie lässt vermuten, die Landwirtschaft in vielfacher Hinsicht zu revolutionieren. Von autonomen Maschinen bis zur Echtzeitüberwachung von Feldern und Tieren bietet 5G ein enormes Potenzial.
In diesem Artikel werden die finanziellen Aspekte der Implementierung von 5G in der Landwirtschaft, einschließlich Investitions- und Betriebskosten, näher beleuchtet. Zudem werden die potenziellen finanziellen Vorteile und Nutzenaspekte untersucht, die durch 5G-fähige Technologien in den Dimensionen Flexibilität, Sicherheit und Qualität erzielt werden können. Im Rahmen des Forschungsprojekts 5G.NATURAL entsteht ein Business-Case-Rechner, der Unternehmen dabei unterstützt, fundierte Entscheidungen zu treffen. Die Veröffentlichung dieses Tools ist für Ende 2023 geplant und verspricht, die Zukunft der Landwirtschaft nachhaltig zu gestalten.
Bereits Angriffe auf einzelne Unternehmen in der Supply-Chain können eine Kettenreaktion auslösen, die ein ganzes Netz von Partnern gefährden kann. Dieselben Informations- und Kommunikationstechnologien, die einen enormen Beitrag zur Produktivität sowie nationalen und globalen Wettbewerbsfähigkeit von Zuliefernden leisten, vergrößern heute für Unternehmen die mögliche Bedrohungslandschaft. Prominente Ransomware-Angriffe auf die Reederei Maersk und auf den Anbieter für IT-Management-Lösungen Kaseya haben gezeigt, wie anfällig Lieferketten für Cyberkriminelle sind und zu welchen massiven finanziellen Schäden diese führen können. Als Reaktion auf die COVID-19-Pandemie haben viele Unternehmen massiv in ihre digitale Transformation und somit auch in die Digitalisierung der Lieferketten investiert. Dadurch sind Unternehmen nicht nur attraktivere Ziele für Cyberangriffe geworden, sondern bieten den Angreifern mit der digitalisierten Supply-Chain auch einen vielversprechenden neuen Angriffsweg. Derartige Supply-Chain-Attacken greifen ein oder mehrere Unternehmen an und dienen so als trojanisches Pferd, um in letzter Konsequenz ganze Wertschöpfungsnetzwerke zu infiltrieren. Da die Auswirkungen von Angriffen auf die Versorgungsketten zahlreicher Unternehmen nahezu unbegrenzt sind, können Supply-Chain-Attacken nicht als ein isoliertes Problem behandelt werden. Vielmehr müssen diese innerhalb einer ganzheitlichen Cyber-Security-Strategie sowohl beim Zulieferer als auch bei dessen Partnerunternehmen Berücksichtigung finden, um den vielschichtigen Bedrohungen präventiv begegnen zu können. Der folgende Beitrag versteht sich als Überblick bezüglich der aktuellen Bedrohungslandschaft im Bereich Logistik 4.0 und Supply-Chain-Management sowie der möglichen Reaktionsmaßnahmen.
Companies are transforming from transactional sales to providing solutions for their customers. Mostly, smart products, enabling companies to enhance their products by providing smart services to their customers, are a key building block in this transformation. However, the development of a smart product requires many digital skills and knowledge, which regular companies do not have. To facilitate the design and conceptualization of smart products, this paper presents a use-case-based information systems architecture prototype for smart products. Furthermore, the paper features the application and evaluation of the architecture on two different smart product projects. The use of such an architecture as a reference in smart product development serves as a huge advantage and accelerator for inexperienced companies, allowing faster entry into this new field of business. [https://link.springer.com/chapter/10.1007/978-3-031-14844-6_16]
Der Betrieb lokaler privater Mobilfunknetze in lizenzierten Frequenzbändern ist eine der Kerninnovationen aktueller 5G- und zukünftiger 6G-Netze. Die prognostizierte Leistungsfähigkeit privat verfügbarer und störungsfreier Frequenzbereiche, wie z. B. privater 5G-Netze, sogenannter Campusnetze, ist für Industrieunternehmen oft von großem Interesse. Die Integration der 5G-Netzwerkinfrastruktur in bestehende Brownfield-Umgebungen muss jedoch erhebliche technische und Management-Herausforderungen überwinden. Im Vergleich zu selten anzutreffenden Greenfield-Szenarien kann das Potenzial von 5G nur gezeigt werden, wenn signifikante Leistungsvorteile gegenüber bestehender drahtloser Netzwerkinfrastruktur (z. B. Wi-Fi) nachgewiesen werden können und gleichzeitig eine nahtlose Integration in die Prozessumgebung in der Praxis gewährleistet werden kann.
Vor diesem Hintergrund stellt das Competence Center 5G.NRW in diesem Beitrag ein agiles System zur kontinuierlichen, netzwerkübergreifenden Überwachung von Ende-zu-Ende-Leistungsgarantien in Bezug auf Durchsatz, Latenz und Zuverlässigkeit vor. Während einzelne punktuelle Messungen während der Netzwerk-Inbetriebnahme und -Erprobung oft die erwarteten Leistungsspitzen anzeigen, untersucht dieser Beitrag speziell das Potenzial eines räumlich verteilten Stresstests, der die Netzwerkqualität aktiv und kontinuierlich während des Produktivbetriebs überwacht. Anhand einer umfangreichen Fallstudie wird die Leistungsfähigkeit des verteilten Ansatzes für die Leistungsbewertung von Mehrbenutzer- und Zellenrandumgebungen demonstriert.
In diesem Leitfaden werden vier Phasen („Identifikation von Anwendungsfällen“, „Ist-Analyse der Infrastruktur“, „Konzeption in der BaSys-4.0-Umgebung“ und „Umsetzung der Entscheidungsunterstützung“) zur Umsetzung der BaSys-Architektur empfohlen, die hier näher beschrieben werden. Darauf folgt ein Glossar, das die wesentlichen Begrifflichkeiten rund um BaSys 4 und ‚BaSys4Dash‘ erläutert.
Im Forschungsprojekt „Legitimise IT“ wurde ein einheitlicher Ansatz zur Nutzung von Schatten-IT für produzierende kleine und mittlere Unternehmen (KMU) entwickelt. Dadurch sollen KMU zur kontrollierten Legitimierung nutzenstiftender Schatten-IT unter Berücksichtigung vorhandener Risiken befähigt werden.
Schatten-IT ist in den meisten Unternehmen vorhanden. Durch den unkontrollierten Einsatz von Schatten-IT im Unternehmen entstehen zahlreiche Risiken, welche zu Ineffizienzen und Fehleranfälligkeiten bei den Betriebsabläufen führen können. Dabei wird die Entstehung von Schatten-IT nicht zuletzt durch die Schnelllebigkeit und Vielfalt der technologischen Entwicklungen weiter beschleunigt. Der Ansatz, durch eine strikte Vorgabe der Unternehmensführung lediglich auf genehmigte und zentral verwaltete IT-Anwendungen zurückzugreifen, um Schatten-IT zu unterbinden, hat sich in der unternehmerischen Praxis nicht bewährt. Bisherige Ansätze adressieren nicht die Gründe für die Notwendigkeit von Schatten-IT und bieten keinen organisatorischen und insbesondere technologischen Rahmen, um deren Vorteile unternehmerisch zu nutzen.
Daher wurde im Projekt ein Ansatz entwickelt, der einerseits die aufgezeigten Risiken minimiert und andererseits Mitarbeitenden die notwendigen Freiheiten für eigene, kreative Lösungen bietet. Damit Unternehmen ihre großen Herausforderungen bei der Abschätzung der Risiken- und Nutzenaspekte wie auch beim strikten Verzicht auf die eingesetzten Schatten-IT-Anwendungen bewältigen können, wird eine entsprechende Methodik gefordert.
5G in der Industrie
(2023)
Mit dem Ziel, die Relevanz der fünften Mobilfunkgeneration in industriellen wie auch gesellschaftlichen Anwendungsszenarien zu verdeutlichen, entstand dieses Whitepaper im Rahmen des Forschungsprojekts ‚Competence Center 5G.NRW‘ in Zusammenarbeit mit der Technischen Universität Dortmund, der Universität Duisburg-Essen, der Bergischen Universität Wuppertal und dem FIR an der RWTH Aachen als verantwortliche Forschungseinrichtungen.
Die Siemens Energy AG verfügt über 80 Produktionsstandorte auf der ganzen Welt. Die IT-Systemlandschaft in der Produktion ist – wie in gewachsenen Strukturen üblich – sehr heterogen. Folgerichtig stellt sich das übergeordnete Ziel, diese IT-Systemlandschaften zu harmonisieren. Dabei ist es unumgänglich, die unterschiedlichen Anforderungen aus den verschiedenen Unternehmensbereichen zu berücksichtigen. Nur so können die übergeordneten Effizienzgewinne mit einer Harmonisierung erreicht werden. Die Verbindung der Expertise von FIR und Siemens Energy war hier das Erfolgsrezept.
In the age of digitalization, IT strategies are becoming increasingly important. This is due to the fact that corporate IT is the key enabler of digitalization. In many companies, however, corporate IT is not well-aligned with the overall organizational strategy, preventing it from providing the best possible value for the different organizational units. A major challenge is posed by what we term IT complexity, which reduces efficiency and generates high costs for the corporate IT department.
This white paper outlines solutions for companies facing this issue. First, we provide an overview of the relevant terms and highlight the challenges confronting enterprises today. Central to this paper, we describe a four-step approach for the design development of an IT strategy. We introduce various tools with which to assess the current situation and identify relevant aspects of the business environment. Subsequently we outline an approach to strategy formulation and describe tools for strategy implementation and monitoring. Finally, an outlook into the future highlights what companies need to do to thrive into the future.
Die vernetzte Digitalisierung als Befähiger für Intelligente Produkte und datenbasierte Geschäftsmodelle stellt Unternehmen vor zahlreiche und vielfältige Herausforderungen auf dem Weg durch die digitale Transformation. Zur Unterstützung dieser Unternehmen wurden in den vergangenen Jahren diverse Referenzarchitekturmodelle entwickelt. Eine detaillierte Analyse derselben und insbesondere ihrer Nutzung durch Unternehmen zeigt schnell, dass aktuell bestehende Referenzmodelle große Schwächen in der Anwendung und somit in der Praxistauglichkeit aufweisen. Mit dem Aachener Digital-Architecture-Management (ADAM) wurde ein Modell entwickelt, das gezielt die Schwächen bestehender Referenzarchitekturen adressiert, ohne ihre Stärken zu vernachlässigen. Als holistisches Modell, speziell für die Anwendung durch Unternehmen entwickelt, strukturiert das ADAM-Modell die digitale Transformation von Unternehmen in den Bereichen der digitalen Infrastruktur und der Geschäftsentwicklung. Systematisch werden Unternehmen dazu befähigt, die Gestaltung der Digitalarchitektur unter Berücksichtigung von Gestaltungsfeldern voranzutreiben. Dabei bietet das Modell nicht nur eine Strukturierungshilfe, sondern beinhaltet auch einen Baukasten, um das Vorgehen in der digitalen Transformation zu konfigurieren. Durch die Breite und Tiefe von ADAM werden Unternehmen befähigt, den Weg durch die digitale Transformation systematisch und strukturiert zu bestreiten, ohne die wertschöpfenden Bestandteile der Digitalisierung aus den Augen zu verlieren.
Mikroplastik lässt sich zunehmend in der Umwelt nachweisen, wobei weder Herkunft noch Menge lokal bekannt sind. Unter der Prämisse negativer Auswirkungen auf die Umwelt kann sich eine fehlende Transparenz lokaler Mikroplastikemissionen zu einem strategischen Nachteil für unsere Gesellschaft entwickeln. Gemäß dem Vorsorgeprin-zip kann die präventive Daten- und Transparenzschaffung eine angemessene Reaktion im Sinne des Umwelt- und Gesundheitsschutzes erleichtern. Im Forschungsprojekt "mMEU Mobilitätsbedingte Mikroplastikemissionen in der Umwelt“ arbeiteten das Wuppertal Institut für Klima, Umwelt, Energie (WI) und der FIR e.V. an der RWTH Aachen (FIR) gemeinsam an der Frage, wie eine lokale Ermittlung der Mikroplastikemission anhand von Datenquellen, die sich vor allem aus der Verkehrsinfrastruktur ergeben, erhoben werden kann. Es wurden verschiedene Umgebungsdatenquellen und -typen untersucht und hinsichtlich ihrer Zugänglichkeit, Qualität und Anwendbarkeit bewertet, sodass eine effiziente Data-Governance ermöglicht wird.
Geschäftskritischer Erfolgsfaktor oder notwendiges Übel: Stammdatenmanagement ist eine Disziplin, die in der Praxis oft nicht den angemessenen Stellenwert erfährt. Meist wird eine schlechte Datenqualität zwar als Problem wahrgenommen, jedoch von den Unternehmen nicht behandelt. Das Resultat ist, dass Redundanzen und Inkonsistenzen in den Stammdaten weiter anwachsen und letztendlich auch die Prozesse, die auf die Daten zugreifen, ins Stocken geraten. Die mangelnde Konsequenz in der Datenpflege hat zwei Hauptursachen: Zum einen sind die konkreten Nutzenpotentiale mitunter nur schwer ersichtlich und der direkte Beitrag zum Unternehmenserfolg häufig nicht greifbar. Zum anderen mangelt es oftmals an geeigneten Lösungsansätzen oder deren konsequenter Umsetzung.
Ganzheitliches betriebliches SDM erfordert sowohl strategische, organisatorische als auch informationstechnische Maßnahmen in Unternehmen. Es ist notwendig, das SDM mit der strategischen Planung des Unternehens in Einklang zu bringen und geeignete Datenpflegeprozesse zu definieren, die, unter Einbindung von IT- und Fachabteilungen, sowohl Verantwortlichkeiten als auch das Vorgehen beschreiben. Eine Stammdatenarchitektur, die aktuelle und korrekte Stammdaten innerhalb der IT-Landschaft gewährleistet, muss gewählt, und geeignete Datenstrukturen, die sowohl die Anforderungen der Fachabteilungen abdecken, als auch den benötigten Grad an Interoperabilität ermöglichen, müssen geschafften werden.
Das Ziel des vorliegenden White Papers ist es, dem Leser einen Einblick in das Themengebiet SDM zu gewähren. Es beschreibt die verschiedenen Handlungsfelder von SDM und liefert Methoden für die einzelnen Gestaltungsbereiche. Weiterhin liefert es eine Vorgehensweise, um systematisch die Stammdatenqualität zu optimieren und nachhaltiges SDM im Unternehmen zu etablieren.
Ziel des vorliegenden Whitepapers ist es, dem Leser einen Einblick in das Themengebiet Stammdatenmanagement zu gewähren. Anfangs werden
hierfür das Stammdatenthema vorgestellt und die Grundlagen beschrieben. Ferner werden die einzelnen Handlungsfelder und Gestaltungsbereiche
aufgezeigt. Ein weiterer Abschnitt widmet sich der Schnittstelle zwischen Big Data und Stammdaten. Letztendlich liefert das Whitepaper eine Vorgehensweise, um systematisch die Stammdatenqualität zu optimieren und nachhaltiges SDM im Unternehmen zu etablieren.
The change from the traditional to the digital service provider is not easy. The digital maturity level of many industrial companies is still too low to successfully place these digital service innovations on the market. One problem of service development is the increasing involvement of information and communication technology in service development and implementation. The additional technology makes the innovation processes for services on the part of manufacturers increasingly complex by involving different internal and external stakeholders (e.g. IT partners, data protection officers or product development departments). In addition to this, data-driven services also require that manufacturers (e.g. data scientists) develop new competencies in order to use the customer data obtained to increase machine productivity and to offer new business models. Furthermore, industrial companies that want to successfully offer data-driven services must develop new market introduction strategies to create a high degree of acceptance and trust among their customers. This is necessary to get access to relevant data. These and other challenges caused the success rate of companies in regarding the development of new, industrial services to shrink.
To change this, this white paper presents six principles that help industrial enterprises to develop new successful data-driven services.
Smart Operations
(2015)
Ziel des vorliegenden Whitepapers ist es, dem Leser
einen Einblick in das Themengebiet „Smart Operations“
am FIR an der RWTH Aachen zu geben. Es beschreibt die
derzeitigen Umfeldveränderungen im Kontext produzierender
Unternehmen und zeigt auf dieser Basis die Handlungsfelder
eines zukunftsorientierten Produktionsmanagements
im Umfeld der Digitalisierung auf.
[Whitepaper] ToMiC
(2011)
Social-Software-Lösungen gewinnen im beruflichen Kontext stetig an Bedeutung. Durch ihren Einsatz bilden sich unternehmensinterne Communitys, die einem Lebenszyklus unterliegen, der aus Phasen mit unterschiedlichen Eigenschaften besteht. Das Whitepaper stellt ein Modell zur Verfügung, um die Phase einer solchen Community zu bestimmen. Aufbauend darauf werden Handlungsempfehlungen zum lebenszyklusorientierten Management bereitgestellt, um den unternehmerischen Wert der Community zu maximieren.
Die Nahrungsmittelindustrie bringt jährlich ca. 40.000 neue Produkte auf den Markt. Die daraus resultierenden Veränderungen haben einen großen Einfluss auf die Nahrungsmittelindustrie und führen durch die
Vielzahl der zusätzlichen Optionen zu deutlich komplexeren Entscheidungsproblemen. Eine Strategie zur Bewältigung dieser Herausforderung ist die Verankerung der datengesteuerten Entscheidungsfindung, die zu einem zunehmenden Einsatz fortschrittlicher Informationstechnologien wie Business-Analytics
führt. Trotz aller Vorteile sind die Unternehmen mit der Implementierung von Business-Analytics überfordert, was sich in einer Misserfolgsquote von 65 bis 80 Prozent widerspiegelt. In diesem Artikel werden Erfolgsfaktoren aufgezeigt und Handlungsempfehlungen abgeleitet, um Unternehmen bei der Einführung von Business-Analytics und dem Aufbau einer fundierten Basis für unternehmerische Entscheidungen zu unterstützen. Die umfassende Expertise für das Forschungsprojekt wird durch ein gemeinsames Konsortium, bestehend aus den Instituten FIR e. V. an der RWTH Aachen, IPRI – International Performance Research Institute GmbH in Stuttgart und dem Forschungsinstitut für Unternehmensführung, Logistik und Produktion der Technischen Universität München gestellt.
Mit dem Internet of Production kann gemäß den spezifischen Bedürfnissen und komplexen Anforderungen von produzierenden Unternehmen eine systemübergreifende Informationsverfügbarkeit erreicht und somit systemweit Prozesse beschleunigt werden. Zur Implementierung der Idee des Internet of Production bedarf es einer Software-Plattform, welche den hohen Anforderungen an die Verlässlichkeit von bereitgestellten Daten, umfassender Datenintegration und analytischen Features gerecht wird. Unternehmen werden dabei vor die Herausforderung gestellt, aus der stetig wachsenden Anzahl an IoT-Plattformen eine auszuwählen, die den individuellen Anforderungen des Unternehmens gerecht wird. Die vorliegende Plattformstudie bietet deshalb eine Übersicht über die wichtigsten IoT-Plattformen, welche für eine Implementierung der Ansätze des Internet of Production infrage kommen. Sie soll eine Entscheidungsgrundlage für produzierende Unternehmen bilden, anhand derer eine individuelle und qualifizierte Auswahl einer Softwareplattform getroffen werden kann. Für die Studie wurde daher eine Befragung bei IoT-Plattformanbietern durchgeführt. Die Auswertung der Befragung zeigt unterschiedliche Schwerpunkte der Funktionen von IoT-Plattformen.
Eine Herausforderung für produzierende Unternehmen in der Entwicklung intelligenter Produkte besteht darin, dass die Zielstellung, die mit einem intelligenten Produkt verfolgt wird, nicht expliziert ist. Zudem ist oftmals nicht spezifiziert, in welchem Anwendungsfall ein intelligentes Produkt agieren soll. Produzierende Unternehmen benötigen Unterstützung, um eine zielorientierte und folglich wirtschaftliche Melioration existierender Produkte zu gewährleisten. Ebendiese Melioration wird im Kontext von intelligenten Produkten als Smartifizierung bezeichnet und stellt damit einen Entwicklungsprozess dar, der ein bestehendes Produkt als Ausgangssituation im Sinne einer Anpassungskonstruktion expliziert. Die originäre Produktfunktion wird folglich nicht verändert, sondern das Produkt um digitale Funktionen und Dienstleistungen erweitert. Der Artikel befasst sich daher erstens mit der Beschreibung generischer Ziele für den Einsatz intelligenter Produkte im Maschinenbau. Eine Zusammenstellung und Erläuterung solcher Ziele unterstützt Unternehmen, eine Präzisierung der Zielfestlegung in der Initiierungsphase eines Smartifizierungsprojekts durchzuführen. Zweitens wird unter Anwendung der Ziel-Mittel-Beziehung ein Anwendungsfall intelligenter Produkte beschrieben. Abschließend werden beide Aspekte in einer Methode zusammengefasst, wie mittels Ziel- und Anwendungsfallbetrachtung Anforderungen abgeleitet und wie diese Elemente in Vorgehensmodelle der Produktentwicklung eingebettet werden können. Exemplarisch wird anhand einer Stanzmaschine aufgezeigt wie die Methode und die sich daraus ableitenden Ergebnisse im Smartifizierungsprozess zur Entwicklung einer intelligenten Stanzmaschine eingesetzt werden.
Deutschland als Produktionsstandort befindet sich in einem revolutionären Wandel und sieht sich mit komplexen Anforderungen konfrontiert. Neben kurzen Lieferzeiten und günstigen Preisen fordert der Markt ständig differenziertere und qualitativ hochwertigere Produkte. Gleichzeitig steigt die Marktdynamik aufgrund der starken Kundenorientierung und der damit verbundenen Auftragsschwankungen. Dadurch nimmt die Komplexität von Koordination, Planung und Steuerung der betrieblichen Abläufe zu, wodurch Unternehmen oftmals an ihre Grenzen stoßen. Um den Kundenanforderungen dennoch gerecht zu werden, sehen Unternehmen die Digitalisierung als einen entscheidenden Faktor für den Unternehmenserfolg an. Jedoch stehen die Unternehmen vor der Herausforderung, jene im Rahmen von Industrie 4.0 erfolgreich in ihrem Unternehmen umzusetzen.
Die höhere Verfügbarkeit sowie steigende Notwendigkeit komplexer IT-Lösungen erhöhen die Attraktivität für Unternehmen, technische Aufgaben vermehrt an einen externen IT-Dienstleister zu übertragen. Die Auslagerung von Unterstützungsprozessen und die Fokussierung des Kerngeschäfts fördern operative Effizienz, führen oftmals aber auch zur Intransparenz über das Preis-Leistungs-Verhältnis der tatsächlich erhaltenen Dienstleistung. Anhand eines Projektbeispiels wird diese Problematik systematisch strukturiert, Handlungsmaßnahmen für das proaktive Lösen eines intransparenten Dienstleistungsverhältnisses abgeleitet und präventive Maßnahmen für ein verbessertes IT-Dienstleistermanagement vorgestellt. Ziele dieses Artikels sind es, interessierte Unternehmen für potenziell unklare Preisgestaltungen von Dienstleistungsverträgen zu sensibilisieren und sie in ersten Zügen zum kurzfristigen Dienstleistercontrolling zu befähigen.
Im November 2015 fand die erste DenkfabrEthik in Aachen statt. Hinter diesem Namen verbirgt sich jedoch nicht nur die Veranstaltung, die jährlich stattfinden soll, sondern ein buntes Gremium, das sich einer relevanten, bislang selten beachteten Aufgabe stellt: die ethischen Aspekte einer zunehmenden Digitalisierung auf dem Weg zu einer digitalen Gesellschaft zu beleuchten und stärker in den Fokus allgemeinen Interesses zu rücken.
Dr. Alexander Mertens, Initiator der DenkfabrEthik, gewährt Einblicke in den Themenkomplex 'Ethik in der digitalisierten Welt' und zeigt, warum dieses Thema uns alle angeht.
Cloud-Computing bietet für Unternehmen große Potenziale hinsichtlich Arbeitseffizienz, Flexibilität und der Realisierung neuer Produkte und Geschäftsmodelle gegenüber einer klassischen On-Premises-IT Infrastruktur. Verschiedene technische und nicht-technische Herausforderungen hindern Unternehmen heute noch oft an den notwendigen Schritten zur Cloud-Transformation.
Das FIR an der RWTH Aachen unterstützt bei der systematischen und unternehmensgerechten Realisierung der Cloud-Potenziale mit einem dreiphasigen Konzept, angefangen bei der Zieldefinition, bis hin zur Implementierung. In den einzelnen Phasen wird eine Vielzahl bewährter Einzelmethoden in einer Gesamtmethodik zusammengeführt und so ein anwendungsfallspezifisches, auf die individuelle Unternehmenssituation zugeschnittenes Vorgehen verfolgt.
Prinzipien zur erfolgreichen Umsetzung von KI-Geschäftsmodellinnovationen
In Zeiten des zunehmenden globalen Wettbewerbs und hoch vernetzter Wertschöpfungsketten entwickelt sich Künstliche Intelligenz zu einem immer wichtiger werdenden Wettbewerbsfaktor für Unternehmen am Wirtschaftsstandort Deutschland. Durch den Einsatz von KI-Verfahren können nicht nur interne Geschäftsprozesse kostensenkend optimiert, sondern auch neue, digitale Geschäftsfelder und -modelle erschlossen werden. Es lassen sich zum einen Trends identifizieren, denen der Einsatz von KI in deutschen Unternehmen folgt. Zum anderen zeigt sich, dass sich KI unterschiedlich stark auf verschiedene Dimensionen innovativer Geschäftsmodelle auswirkt. Insgesamt lassen sich so Prinzipien ableiten, die die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen beschreiben.
Neue Technologie- und Anwendungstrends kennzeichnen KI-Nutzung
Die tatsächliche KI-Landschaft in den Wertschöpfungsketten von KI-nutzenden Unternehmen ist durch Trends gekennzeichnet. Diese lassen sich in Technologie- und Anwendungstrends unterteilen. Experteninterviews zeigen beispielsweise, dass KI-Anwendungen bevorzugt auf Cloud-Infrastrukturen entwickelt und bereitgestellt werden. Das wiederum rückt die Frage nach der Wahrung der Datensouveränität in den Vordergrund. Anwendung findet KI tendenziell zur Prognose und Überwachung.
Sechs Prinzipien beeinflussen die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen
Fallstudien über ein breites Spektrum der deutschen Wirtschaft beleuchten, welche Aspekte eines KI-basierten Geschäftsmodells den größten Effekt auf das Unternehmen haben. Hier lässt sich ein besonders hoher Einfluss von KI auf das Nutzenversprechen neuartiger, digitaler Leistungen der Unternehmen an die Kundinnen und Kunden feststellen. So lassen sich sechs Erfolgsprinzipien zur erfolgreichen Implementierung von KI-Technologien identifizieren, um die wirtschaftliche Nutzung von KI für Unternehmen in Deutschland im globalen Wettbewerb weiter zu steigern. So empfiehlt es sich zum Beispiel – neben der Auswahl des richtigen KI-Anwendungsfalles – ebenfalls darauf zu achten, dass die KI-Anwendung sowohl den Anbietenden wie auch den Anwendenden nützt. Diese und weitere Erfolgsprinzipien werden detailliert in der Studie Künstliche Intelligenz – Geschäftsmodellinnovationen und Entwicklungstrends beschrieben.
Auch in Zeiten von COVID-19, mit der Umstellung auf Remote-Arbeit und -Workshops, lassen sich umfangreiche IT-Projekte meistern. Nach einem dezentralen Aufbau diverser Landesgesellschaften wurden Ineffizienzen in den Prozessen und mangelnde Unterstützung durch die eingeführten Informationssysteme immer deutlicher. In Kombination mit einer strategischen Neuausrichtung, die digitale Lernformate in den Vordergrund stellt, wurde deutlich, dass die Ländergesellschaften ihre komplette IT-Landschaft umgestalten müssen. Wie die Experten des FIR bei der Lösung dieser Herausforderungen geholfen haben, zeigt der folgende Artikel. Um mittelfristig nicht nur anforderungsgerechte
Informationssysteme nutzen zu können, sondern auch gleichzeitig Ressourcen effizienter einzusetzen, wurde beschlossen, zunächst eine IT-Harmonisierung durchzuführen. Unter Einbeziehung des Aachener Digital-Architecture-Managements wurde nicht nur die Harmonisierung erfolgreich vorangetrieben, sondern gleichzeitig auch die Anforderungen an die Digitalarchitektur des Unternehmens berücksichtigt
Aufgrund der Komplexität von Software-Einführungsprozessen und um den diversen Anforderungen eines Energiemanagementsystems (EnMS) nach DIN 50001 zu entsprechen, ist die Einführung eines EnMS insbesondere bei KMU herausfordernd. Darüber hinaus stellen fehlende finanzielle Ressourcen, fehlende Informationen und fehlendes Wissen die zentralen Hemmnisse für KMUs bei der Implementierung eines Energiemanagementsystems dar. Durch die sich ändernden Anforderungen müssen KMU sich mit EnMS im Kontext des Nachhaltigkeitsmanagements auseinandersetzen.
Das in EIS4IoP entwickelte Tool adressiert diese Problematik, indem die komplexe Einführung von Energiemanagementsystemen durch die Entwicklung eines Gestaltungsmodells zur Einführung von Energieinformationssystemen (EIS) als Entscheidungshilfe für KMU verbessert wird.
Dabei werden nicht nur ökonomische, sondern auch ökologische und soziale Aspekte der Nachhaltigkeit (Def. nach Elkington) berücksichtigt.
Der Nutzen besteht darin, Kosten für den Aufbau und die Integration eines EIS zu reduzieren und durch ein datenbasiertes Energiemanagement langfristig Energiekosten einzusparen. Zudem lassen sich durch die ganzheitliche Herangehensweise zukünftige Kosten vermeiden, da KMU keine nachträglichen Änderungen an ihren Systemen angehen müssen.
Für KMU ergeben sich hieraus drei Bereiche der Kostenoptimierungspotentiale. So ergeben sich Einsparungen bei einem EIS-Einführungsprojekt, zum anderen eine Reduzierung der eigenen Energiekosten (durch Effizienzmaßnahmen, Abgabenreduzierung oder Regelenergieeinnahmen) und Reduzierung der Energieabgaben durch eine Reduzierung der volkswirtschaftlichen Kosten für den Netzausgleich.
Neben den reinen Kostenoptimierungspotenzialen existieren eine Reihe von Potenzialen, die sich nicht trivial quantifizieren lassen. Dazu gehören Imageverbesserungen der KMU, eine verbesserte Lieferantenqualifikation von KMU und eine verbesserte Vorbereitung auf aktuelle Entwicklungen wie die Kreislaufwirtschaft.
In the age of digitalization, manufacturing companies are under increased pressure to change due to product complexity, growing customer requirements and digital business models. The increasing digitization of processes and products is opening up numerous opportunities for mechanical engineering companies to exploit the resulting potential for value creation. Subscription business is a new form of business model in the mechanical engineering industry, which aims to continuously increase customer benefit to align the interests of both companies and customers. Characterized by a permanent data exchange, databased learning about customer behavior, and the transfer into continuous innovations to increase customer value, subscription business helps to make Industry 4.0 profitable. The fact that machines and plants are connected to the internet and exchange large amounts of data results in critical information security risks. In addition, the loss of knowledge and control, data misuse and espionage, as well as the manipulation of transaction or production data in the context of subscription transactions are particularly high risks. Complementary to direct and obvious consequences such as loss of production, the attacks are increasingly shifting to non-transparent and creeping impairments of production or product quality, which are only apparent at a late stage, or the influencing of payment flows. A transparent presentation of possible risks and their scope, as well as their interrelationships, does not exist. This paper shows a research approach in which the structure of subscription models and their different manifestations based on their risks and vulnerabilities are characterized. This allows suitable cyber security measures to be taken at an early stage. From this basis, companies can secure existing or planned subscription business models and thus strengthen the trust of business partners and customers.
Durch die steigende Vernetzung in produzierenden Unternehmen nimmt die potenzielle Gefahr durch Cyberangriffe zu. Die meisten kleinen und mittleren Unternehmen (KMU) sind sich heute bewusst, dass hierbei nicht mehr ausschließlich Großkonzerne ein beliebtes Angriffsziel darstellen. Durch automatisierte Malware-Kampagnen und die wachsende Anzahl von Cyberangriffen rücken alle Akteure der Wertschöpfungskette produzierender Unternehmen zunehmend in das Visier von Angreifern – dabei können KMU direkt oder indirekt, zur Schädigung ihrer Partner, angegriffen werden. Die steigende Bedrohungslandschaft ist allerdings nicht die einzige Herausforderung, mit der sich KMU konfrontiert sehen. Besonders schwerwiegend und besorgniserregend ist ihr Umgang mit Cybersicherheit: Viele KMU setzen sich trotz zunehmender Digitalisierung bislang nur unzureichend mit ihrer Cybersicherheit auseinander. Durch die Verschmelzung unterschiedlicher Domänen steigt nicht nur die Komplexität der Technologien, sondern auch die der Prozesse sowie der Organisation in Unternehmen. Die Sicherheit von Systemen definiert sich nicht mehr nur über einzelne Komponenten, sondern durch die Sicherheit des unternehmensübergreifenden Gesamtsystems. Klassische Lösungsansätze zur Absicherung einzelner Komponenten decken die gestiegenen Schutzanforderungen nicht mehr ausreichend ab. Um KMU einen selbständigen und pragmatischen Einstieg in die Thematik zu ermöglichen, muss diese Komplexität beherrschbar gemacht werden. Aus Sicht der Cybersicherheit darf die Komplexität jedoch nicht dadurch reduziert werden, relevante Aspekte zu ignorieren. Es bedarf neuer und angepasster Sichtweisen, die KMU den Einstieg erleichtern.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Die andauernde Globalisierung stellt Unternehmen weiterhin vor erhebliche Herausforderungen. Während sich zum einen die Wettbewerbssituation verschärft, steigen zum anderen die Kundenansprüche. Um dem Kundenwunsch nach individuellen Produkten gerecht zu werden, differenzieren Unternehmen ihr Produktangebot. Gleichzeitig erlaubt die fortschreitende Vernetzung eine höhere Innovationsgeschwindigkeit, die u. a. eine Verkürzung der Produktlebenszyklen bewirkt. Dieser Anstieg an zeitgleich zu erbringenden Leistungen sorgt für immer komplexere Unternehmensprozesse und Wertschöpfungsketten. Auch die zunehmende Anzahl an Partnern und Dienstleistungen sowie deren beständiger Wechsel steigern die Komplexität und damit den Koordinationsbedarf in Supply-Chains. Dieser Aufwand nimmt dabei mit steigender Anzahl der Faktoren exponentiell zu. Darüber hinaus rufen die steigende Anzahl an IT-Systemen sowie deren Änderungsgeschwindigkeit hochkomplexe und dynamische Strukturen hervor. Insbesondere die wechselseitigen Beziehungen zwischen den genannten Einflussfaktoren führen zu einem intransparenten Gesamtsystem.