000 Informatik, Informationswissenschaft, allgemeine Werke
Refine
Year of publication
Document Type
- Bachelor Thesis (1)
- Book (1)
- Part of a Book (2)
- Conference Proceeding (2)
- Contribution to a Periodical (8)
- Master's Thesis (1)
- Report (3)
- Working Paper (19)
Language
- German (28)
- English (4)
- Multiple languages (5)
Is part of the Bibliography
- no (37)
Keywords
- 01 (2)
- 02 (2)
- 3PhasenKonzept (1)
- 5G (3)
- 5G-Monitoring (2)
- 5G-Netze (2)
- 5G-Potenziale (2)
- 5G-Technologie (2)
- ADAM (1)
- Anwendungsszenarien (2)
Institute
[Whitepaper] ToMiC
(2011)
Social-Software-Lösungen gewinnen im beruflichen Kontext stetig an Bedeutung. Durch ihren Einsatz bilden sich unternehmensinterne Communitys, die einem Lebenszyklus unterliegen, der aus Phasen mit unterschiedlichen Eigenschaften besteht. Das Whitepaper stellt ein Modell zur Verfügung, um die Phase einer solchen Community zu bestimmen. Aufbauend darauf werden Handlungsempfehlungen zum lebenszyklusorientierten Management bereitgestellt, um den unternehmerischen Wert der Community zu maximieren.
Ziel des vorliegenden Whitepapers ist es, dem Leser einen Einblick in das Themengebiet Stammdatenmanagement zu gewähren. Anfangs werden
hierfür das Stammdatenthema vorgestellt und die Grundlagen beschrieben. Ferner werden die einzelnen Handlungsfelder und Gestaltungsbereiche
aufgezeigt. Ein weiterer Abschnitt widmet sich der Schnittstelle zwischen Big Data und Stammdaten. Letztendlich liefert das Whitepaper eine Vorgehensweise, um systematisch die Stammdatenqualität zu optimieren und nachhaltiges SDM im Unternehmen zu etablieren.
Geschäftskritischer Erfolgsfaktor oder notwendiges Übel: Stammdatenmanagement ist eine Disziplin, die in der Praxis oft nicht den angemessenen Stellenwert erfährt. Meist wird eine schlechte Datenqualität zwar als Problem wahrgenommen, jedoch von den Unternehmen nicht behandelt. Das Resultat ist, dass Redundanzen und Inkonsistenzen in den Stammdaten weiter anwachsen und letztendlich auch die Prozesse, die auf die Daten zugreifen, ins Stocken geraten. Die mangelnde Konsequenz in der Datenpflege hat zwei Hauptursachen: Zum einen sind die konkreten Nutzenpotentiale mitunter nur schwer ersichtlich und der direkte Beitrag zum Unternehmenserfolg häufig nicht greifbar. Zum anderen mangelt es oftmals an geeigneten Lösungsansätzen oder deren konsequenter Umsetzung.
Ganzheitliches betriebliches SDM erfordert sowohl strategische, organisatorische als auch informationstechnische Maßnahmen in Unternehmen. Es ist notwendig, das SDM mit der strategischen Planung des Unternehens in Einklang zu bringen und geeignete Datenpflegeprozesse zu definieren, die, unter Einbindung von IT- und Fachabteilungen, sowohl Verantwortlichkeiten als auch das Vorgehen beschreiben. Eine Stammdatenarchitektur, die aktuelle und korrekte Stammdaten innerhalb der IT-Landschaft gewährleistet, muss gewählt, und geeignete Datenstrukturen, die sowohl die Anforderungen der Fachabteilungen abdecken, als auch den benötigten Grad an Interoperabilität ermöglichen, müssen geschafften werden.
Das Ziel des vorliegenden White Papers ist es, dem Leser einen Einblick in das Themengebiet SDM zu gewähren. Es beschreibt die verschiedenen Handlungsfelder von SDM und liefert Methoden für die einzelnen Gestaltungsbereiche. Weiterhin liefert es eine Vorgehensweise, um systematisch die Stammdatenqualität zu optimieren und nachhaltiges SDM im Unternehmen zu etablieren.
The change from the traditional to the digital service provider is not easy. The digital maturity level of many industrial companies is still too low to successfully place these digital service innovations on the market. One problem of service development is the increasing involvement of information and communication technology in service development and implementation. The additional technology makes the innovation processes for services on the part of manufacturers increasingly complex by involving different internal and external stakeholders (e.g. IT partners, data protection officers or product development departments). In addition to this, data-driven services also require that manufacturers (e.g. data scientists) develop new competencies in order to use the customer data obtained to increase machine productivity and to offer new business models. Furthermore, industrial companies that want to successfully offer data-driven services must develop new market introduction strategies to create a high degree of acceptance and trust among their customers. This is necessary to get access to relevant data. These and other challenges caused the success rate of companies in regarding the development of new, industrial services to shrink.
To change this, this white paper presents six principles that help industrial enterprises to develop new successful data-driven services.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Die andauernde Globalisierung stellt Unternehmen weiterhin vor erhebliche Herausforderungen. Während sich zum einen die Wettbewerbssituation verschärft, steigen zum anderen die Kundenansprüche. Um dem Kundenwunsch nach individuellen Produkten gerecht zu werden, differenzieren Unternehmen ihr Produktangebot. Gleichzeitig erlaubt die fortschreitende Vernetzung eine höhere Innovationsgeschwindigkeit, die u. a. eine Verkürzung der Produktlebenszyklen bewirkt. Dieser Anstieg an zeitgleich zu erbringenden Leistungen sorgt für immer komplexere Unternehmensprozesse und Wertschöpfungsketten. Auch die zunehmende Anzahl an Partnern und Dienstleistungen sowie deren beständiger Wechsel steigern die Komplexität und damit den Koordinationsbedarf in Supply-Chains. Dieser Aufwand nimmt dabei mit steigender Anzahl der Faktoren exponentiell zu. Darüber hinaus rufen die steigende Anzahl an IT-Systemen sowie deren Änderungsgeschwindigkeit hochkomplexe und dynamische Strukturen hervor. Insbesondere die wechselseitigen Beziehungen zwischen den genannten Einflussfaktoren führen zu einem intransparenten Gesamtsystem.
Deutschland als Produktionsstandort befindet sich in einem revolutionären Wandel und sieht sich mit komplexen Anforderungen konfrontiert. Neben kurzen Lieferzeiten und günstigen Preisen fordert der Markt ständig differenziertere und qualitativ hochwertigere Produkte. Gleichzeitig steigt die Marktdynamik aufgrund der starken Kundenorientierung und der damit verbundenen Auftragsschwankungen. Dadurch nimmt die Komplexität von Koordination, Planung und Steuerung der betrieblichen Abläufe zu, wodurch Unternehmen oftmals an ihre Grenzen stoßen. Um den Kundenanforderungen dennoch gerecht zu werden, sehen Unternehmen die Digitalisierung als einen entscheidenden Faktor für den Unternehmenserfolg an. Jedoch stehen die Unternehmen vor der Herausforderung, jene im Rahmen von Industrie 4.0 erfolgreich in ihrem Unternehmen umzusetzen.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
In the age of digitalization, IT strategies are becoming increasingly important. This is due to the fact that corporate IT is the key enabler of digitalization. In many companies, however, corporate IT is not well-aligned with the overall organizational strategy, preventing it from providing the best possible value for the different organizational units. A major challenge is posed by what we term IT complexity, which reduces efficiency and generates high costs for the corporate IT department.
This white paper outlines solutions for companies facing this issue. First, we provide an overview of the relevant terms and highlight the challenges confronting enterprises today. Central to this paper, we describe a four-step approach for the design development of an IT strategy. We introduce various tools with which to assess the current situation and identify relevant aspects of the business environment. Subsequently we outline an approach to strategy formulation and describe tools for strategy implementation and monitoring. Finally, an outlook into the future highlights what companies need to do to thrive into the future.
Durch die steigende Vernetzung in produzierenden Unternehmen nimmt die potenzielle Gefahr durch Cyberangriffe zu. Die meisten kleinen und mittleren Unternehmen (KMU) sind sich heute bewusst, dass hierbei nicht mehr ausschließlich Großkonzerne ein beliebtes Angriffsziel darstellen. Durch automatisierte Malware-Kampagnen und die wachsende Anzahl von Cyberangriffen rücken alle Akteure der Wertschöpfungskette produzierender Unternehmen zunehmend in das Visier von Angreifern – dabei können KMU direkt oder indirekt, zur Schädigung ihrer Partner, angegriffen werden. Die steigende Bedrohungslandschaft ist allerdings nicht die einzige Herausforderung, mit der sich KMU konfrontiert sehen. Besonders schwerwiegend und besorgniserregend ist ihr Umgang mit Cybersicherheit: Viele KMU setzen sich trotz zunehmender Digitalisierung bislang nur unzureichend mit ihrer Cybersicherheit auseinander. Durch die Verschmelzung unterschiedlicher Domänen steigt nicht nur die Komplexität der Technologien, sondern auch die der Prozesse sowie der Organisation in Unternehmen. Die Sicherheit von Systemen definiert sich nicht mehr nur über einzelne Komponenten, sondern durch die Sicherheit des unternehmensübergreifenden Gesamtsystems. Klassische Lösungsansätze zur Absicherung einzelner Komponenten decken die gestiegenen Schutzanforderungen nicht mehr ausreichend ab. Um KMU einen selbständigen und pragmatischen Einstieg in die Thematik zu ermöglichen, muss diese Komplexität beherrschbar gemacht werden. Aus Sicht der Cybersicherheit darf die Komplexität jedoch nicht dadurch reduziert werden, relevante Aspekte zu ignorieren. Es bedarf neuer und angepasster Sichtweisen, die KMU den Einstieg erleichtern.
Mit dem Internet of Production kann gemäß den spezifischen Bedürfnissen und komplexen Anforderungen von produzierenden Unternehmen eine systemübergreifende Informationsverfügbarkeit erreicht und somit systemweit Prozesse beschleunigt werden. Zur Implementierung der Idee des Internet of Production bedarf es einer Software-Plattform, welche den hohen Anforderungen an die Verlässlichkeit von bereitgestellten Daten, umfassender Datenintegration und analytischen Features gerecht wird. Unternehmen werden dabei vor die Herausforderung gestellt, aus der stetig wachsenden Anzahl an IoT-Plattformen eine auszuwählen, die den individuellen Anforderungen des Unternehmens gerecht wird. Die vorliegende Plattformstudie bietet deshalb eine Übersicht über die wichtigsten IoT-Plattformen, welche für eine Implementierung der Ansätze des Internet of Production infrage kommen. Sie soll eine Entscheidungsgrundlage für produzierende Unternehmen bilden, anhand derer eine individuelle und qualifizierte Auswahl einer Softwareplattform getroffen werden kann. Für die Studie wurde daher eine Befragung bei IoT-Plattformanbietern durchgeführt. Die Auswertung der Befragung zeigt unterschiedliche Schwerpunkte der Funktionen von IoT-Plattformen.
Die vernetzte Digitalisierung als Befähiger für Intelligente Produkte und datenbasierte Geschäftsmodelle stellt Unternehmen vor zahlreiche und vielfältige Herausforderungen auf dem Weg durch die digitale Transformation. Zur Unterstützung dieser Unternehmen wurden in den vergangenen Jahren diverse Referenzarchitekturmodelle entwickelt. Eine detaillierte Analyse derselben und insbesondere ihrer Nutzung durch Unternehmen zeigt schnell, dass aktuell bestehende Referenzmodelle große Schwächen in der Anwendung und somit in der Praxistauglichkeit aufweisen. Mit dem Aachener Digital-Architecture-Management (ADAM) wurde ein Modell entwickelt, das gezielt die Schwächen bestehender Referenzarchitekturen adressiert, ohne ihre Stärken zu vernachlässigen. Als holistisches Modell, speziell für die Anwendung durch Unternehmen entwickelt, strukturiert das ADAM-Modell die digitale Transformation von Unternehmen in den Bereichen der digitalen Infrastruktur und der Geschäftsentwicklung. Systematisch werden Unternehmen dazu befähigt, die Gestaltung der Digitalarchitektur unter Berücksichtigung von Gestaltungsfeldern voranzutreiben. Dabei bietet das Modell nicht nur eine Strukturierungshilfe, sondern beinhaltet auch einen Baukasten, um das Vorgehen in der digitalen Transformation zu konfigurieren. Durch die Breite und Tiefe von ADAM werden Unternehmen befähigt, den Weg durch die digitale Transformation systematisch und strukturiert zu bestreiten, ohne die wertschöpfenden Bestandteile der Digitalisierung aus den Augen zu verlieren.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Die rasante Entwicklung der 5G-Kommunikationstechnologie lässt vermuten, die Landwirtschaft in vielfacher Hinsicht zu revolutionieren. Von autonomen Maschinen bis zur Echtzeitüberwachung von Feldern und Tieren bietet 5G ein enormes Potenzial.
In diesem Artikel werden die finanziellen Aspekte der Implementierung von 5G in der Landwirtschaft, einschließlich Investitions- und Betriebskosten, näher beleuchtet. Zudem werden die potenziellen finanziellen Vorteile und Nutzenaspekte untersucht, die durch 5G-fähige Technologien in den Dimensionen Flexibilität, Sicherheit und Qualität erzielt werden können. Im Rahmen des Forschungsprojekts 5G.NATURAL entsteht ein Business-Case-Rechner, der Unternehmen dabei unterstützt, fundierte Entscheidungen zu treffen. Die Veröffentlichung dieses Tools ist für Ende 2023 geplant und verspricht, die Zukunft der Landwirtschaft nachhaltig zu gestalten.
5G in der Industrie
(2023)
Mit dem Ziel, die Relevanz der fünften Mobilfunkgeneration in industriellen wie auch gesellschaftlichen Anwendungsszenarien zu verdeutlichen, entstand dieses Whitepaper im Rahmen des Forschungsprojekts ‚Competence Center 5G.NRW‘ in Zusammenarbeit mit der Technischen Universität Dortmund, der Universität Duisburg-Essen, der Bergischen Universität Wuppertal und dem FIR an der RWTH Aachen als verantwortliche Forschungseinrichtungen.