Das Schnittstellen-Glossar

Was sind META-Daten, wieso eine REST-API und wozu braucht man eine Datenkonsolidierung?

Zu mehr als 70 Begriffen finden Sie hier kurze Erklärungstexte, die im Kontext von Schnittstellen und Digitalisierung immer wieder auftauchen und auch für Laien verständlich sind.

Nehmen Sie Kontakt mit uns auf

Übersicht

Die nachfolgende Liste bietet Ihnen eine schnelle Orientierung über die verfügbaren Inhalte und soll Ihnen die Recherche vereinfachen.

2-Faktor-Authentifizierung / 2-Faktor-Authentisierung / 2FA

Die Zwei-Faktor-Authentifizierung bezeichnet den Prozess, einen Identitätsnachweis (oder eine Authentisierung) eines Nutzers mittels einer Kombination zweier unterschiedlicher und unabhängiger Komponenten (Faktoren) durchzuführen. Dabei ist die Authentisierung durch den Benutzer nur dann erfolgreich, wenn beide Komponenten korrekt sind und zusammen eingesetzt werden. Fehlt eine Komponente oder wird sie falsch verwendet, lässt sich die Zugriffsberechtigung nicht zweifelsfrei feststellen und der Zugriff wird verweigert. So muss sich beispielsweise ein Kontoinhaber bei PayPal nach Eingabe seiner Login-Daten (E-Mail Adresse, Passwort) zusätzlich beim Auslösen jeder Zahlung als Berechtigter authentisieren, indem er ein jeweils einmalig gültiges, dynamisch von PayPal erzeugtes Kennwort verwendet, welches er per SMS auf das registrierte Mobilgerät gesendet bekommt.

Algorithmus

Ein Algorithmus ist eine konkrete und meist detailliert ausformulierte Handlungsvorschrift zur Lösung einer Klasse von Problemen, die aus einer endlichen Folge von Einzelschritten besteht – ähnlich wie bei einer Bedienungsanleitung oder einem Rezept. Der Algorithmus wird üblicherweise vorab in menschlicher Sprache formuliert, bevor er zur digitalen Ausführung in Codes umgewandelt wird. Im Kontext von Schnittstellen definiert ein Algorithmus quasi, wie eine Schnittstelle funktionieren soll. Er ist somit als eine Art Ausführungsplan zu verstehen.

Aliasprofil (DATANAUT)

Ein Aliasprofil wird als Datenbankverbindung in der Applikation referenziert, der Alias selbst referenziert auf das Datenbankprofil. Durch diese Trennung lassen sich Testszenarien besser aufsetzen, da bei einer Änderung im Alias, beispielsweise vom Produktivsystem auf eine Testumgebung, keine anderen Apps betroffen sind.

Anonymisierung

Die Anonymisierung von Daten wird erreicht, indem die zu anonymisierenden Daten verändert werden. Im Ergebnis sind die Daten so modifiziert, dass sie nicht – oder nur mit unverhältnismäßig großem Aufwand an Zeit, Kosten und Arbeitskraft – einer Person oder einer Sache zugeordnet werden können. Eine vollständige Anonymisierung ist schwer zu erlangen, aber möglich.

API

Die Abkürzung API ist der gängige Fachbegriff für eine Programmierschnittstelle und steht für „Application Programming Interface“. Software- und IT-Lösungsanbieter stellen eine API als offenen Schnittstellen-Adapter bereit, um die angebotene Software, die Services oder die Infrastruktur durch die jeweilige Programmierung nutzbar zu machen. Allerdings stellt die Verfügbarkeit einer API, beispielsweise in einem Shopsystem, keine unmittelbar einsatzbereite Schnittstellen-Lösung für den Kunden dar, sondern bildet lediglich eine mögliche Grundlage zur individuellen Anbindung entsprechender Anwendungen, die dafür die bereitgestellte API nutzen können.

Applikationscontainer (DATANAUT)

In einem Applikationscontainer lassen sich Apps sortiert kombinieren und verketten, um in einer geordneten Reihenfolge nacheinander ausgeführt zu werden. Einzelne Apps lassen sich so beliebig mit anderen Apps kombinieren. Der Koordinationsaufwand in Taskplänen kann wegen wegfallender Leerlaufzeiten zwischen Prozessen minimiert werden, da einzelne Apps direkt nacheinander ohne Zeitverlust ausgeführt werden. Die Ausführung eines Containers ist optional durch Ergebnisse einer SQL-Abfrage oder durch vordefinierte Abbruchzeiten steuerbar.

Apps (DATANAUT)

In DATANAUT hinterlegte Anwendungen werden als Applikationen, oder kurz Apps bezeichnet. Eine App kann dialogbasiert oder automatisch ablaufen. Apps bestehen aus Prozessschritten, die aus Einstellungen, Funktionsaufrufen sowie aus Programm-Code von Skriptsprachen bestehen. Die Schritte werden von DATANAUT automatisch nacheinander ausgeführt. Über so genannte Applikationscontainer können einzelne Apps miteinander kombiniert und verkettet werden.

Automatisierung

DIN 19233 definiert Automatisierung als das „Ausrüsten einer Einrichtung, so dass sie ganz oder teilweise ohne Mitwirkung des Menschen bestimmungsgemäß arbeitet.“ In der IT bezeichnet der Begriff entsprechende Prozesse mittels Software-programmierter Computer, welche die Steuerung nach einer Signalgebung selbstständig übernehmen. Diese Lösungen sind Automaten und können ohne menschliches Eingreifen Daten erfassen, verarbeiten und ausgeben EVA-Prinzip), die entsprechenden Prozesse regeln und steuern, sowie die Effektivität der Automatisierungslösung durch Überwachung sicherstellen. Der Automatisierungsgrad bestimmt dabei das Verhältnis von automatisierten zu nicht automatisierten Arbeitsschritten. In diesem Zusammenhang sind Menschen hauptsächlich dafür zuständig, die fertigen Prozesse zu überwachen und zu warten. Unternehmen können durch die Automatisierung Kosten senken und gleichzeitig ihre Leistung erhöhen, da mit gleicher Personalstärke eine höhere Effektivität möglich ist. Zudem sind etwa Qualitätsstandards einfacher einzuhalten. Die Arbeit kann durch Automatisierung somit leichter, nahezu fehlerfrei und deutlich schneller erledigt werden.

Automatisierung (DATANAUT)

DATANAUT kann Apps oder Applikationscontainer zur automatisierten und optional dialoglosen Verarbeitung von Daten speichern und abrufbar machen. Der Abruf erfolgt bei Angabe eines GUID, der die App oder den Container entweder direkt, oder über ein Kommandoprofil identifiziert und zur Ausführung bereitstellt. Weitere Parameter steuern die direkte Ausführung. Die Ausführung kann im Rahmen von Stapeljobs, über DATANAUT Taskplaner, die Windows Aufgabensteuerung oder eine andere geeignete Lösung erfolgen. Protokolle zu allen ausgeführten Apps lassen sich jederzeit aus einem datenbankbasierten Log-System abrufen.

B2B

B2B ist die Abkürzung für „Business-to-Business“. Sie bezeichnet Geschäftsbeziehungen zwischen mindestens zwei Unternehmen. Tritt beispielweise ein Unternehmen als Distributor für IT-Supplies auf und das andere bezieht dort Festplatten für den Weiterverkauf an seine Endkunden, ist ein B2B- Vertragsverhältnis gegeben. Bei der Umsetzung von Schnittstellen sind die Anforderungen oft sehr speziell. So müssen etwa Lagerbestände verlässlich aktuell und Bezugspreise kundenspezifisch sein.

Siehe auch B2C oder D2C.

B2C

B2C steht für „Business-to-Consumer“. In diesem Kontext verkaufen Unternehmens zumeist eingekaufte Produkte direkt an Endverbraucher. Da diese ihre Kaufentscheidungen eigenständig treffen, sind Marketing und Vertrieb auf Einzelpersonen ausgerichtet und entsprechend einfacher. Dies erleichtert auch die Implementierung von Schnittstellen im E-Commerce.

Siehe auch B2B oder D2C.

Big Data

Big Data wird häufig als Sammelbegriff für bestimmte digitale Technologien verwendet. Diese stehen in technischer Hinsicht für ein neues Zeitalter der digitalen Kommunikation und Datenverarbeitung, sowie in sozialer Hinsicht für einen parallel gehenden gesellschaftlichen Umbruch. Ergänzend wird Big Data auch als Komplex an Technologien beschrieben, der zum Sammeln und Auswerten der für den Wandel und das neue Zeitalter notwendigen Datenmengen verwendet wird. Datenmengen im Kontext von Big Data sind extrem groß, komplex und schnelllebig. Die entsprechenden Daten können daher nicht einfach mit den herkömmlichen Methoden der Datenverarbeitung genutzt werden, sondern benötigen entsprechend hochleistungsfähige Rechner-Systeme und Software.

Bidirektionale Schnittstelle

Die Übertragung von Daten zwischen zwei Endpunkten erfolgt bei einer bidirektionalen Schnittstelle in beide Richtungen. Gegensätzlich dazu verhält sich eine unidirektionale Schnittstelle, die Daten demnach nur in eine Richtung überträgt. Bidirektionale Schnittstellen erlauben – über die Datenablage am beteiligten Endpunkt hinaus – Statusinformationen zur erfolgreichen Speicherung der Daten im Quellsystem zu hinterlegen und somit den Vorgang transaktionssicher zu quittieren. Neben der elementaren Transparenz im Prozess, führt dieses Verfahren zu mehr Stabilität und deutlich gesteigerter Effizienz. Insbesondere das Vorliegen der verlässlichen Information über eine erfolgreiche Datenübergabe ermöglicht es, zukünftig stets nur das veränderte Daten-Delta an das Zielsystem übertragen zu müssen.

CLI

Die Abkürzung CLI ist mehrdeutig.

Siehe dazu: Kommandozeile (CLI) oder Datenbank-CLI

Cloud

In der Cloud (zu Deutsch: Wolke) werden verschiedene Dienste für Privatanwender und Unternehmen angeboten. Die technische Grundlage bilden Rechenzentren, die mit dem Internet verbunden sind. Ein Cloud-Anbieter betreibt seine Rechenzentren weitestgehend automatisiert auf Basis von standardisierten Diensten in Form von Software-Produkten oder digitalen Angeboten. Dadurch können diese Dienste sehr vielen Anwendern und Unternehmen gleichzeitig angeboten und bereitgestellt werden. Zu den häufigsten Cloud-Diensten gehören unter anderem E-Mail, Streaming, Telekommunikation, sowie ERP- und Office-Lösungen.

Connector / Konnektor

Ein Connector stellt eine programmierte Software-Komponente dar, welche den Zugang auf individuelle Datenquellen steuert. Ein Connector kann beispielsweise die Authentifizierung zu einer Datenbank ermöglichen, verweigert aber bei fehlerhaften Anmeldedaten den Zugriff. Auf Grundlage eines korrekt konfigurierten Connectors, besteht nach gültiger Authentifizierung ein geregelter Zugriff auf Daten. Dadurch ist es im Rahmen der individuellen Rechte des angemeldeten Benutzers möglich, Daten durch Abfragen und Befehle in der Datenbank zu lesen, zu verarbeiten und zu aktualisieren. Connectoren sind in der Regel in einen funktionellen Kontext eingebettet, wie etwa dem DATANAUT Schnittstellen-Roboter.

CSV

CSV („Comma Separated Values“) steht für ein menschenlesbares Dateiformat, welches den einfachen Datenaustausch zwischen verschiedenen Lösungen ermöglicht. Oftmals dienen CSV-Dateien als Daten-Container in einfachen Schnittstellen, etwa bei der Weitergabe von Buchungsdaten der ERP an die Finanzbuchhaltung. CSV basiert auf standardisierten Strukturen und Vereinbarungen. Jede Dateizeile entspricht einem Datensatz, je Datensatz sind einzelne Spalten durch Kommata getrennt, dem Separator. In einer CSV-Datei wird in Zeile 1 üblicherweise eine Spaltenbeschreibung hinterlegt. Als weitere Separatoren haben sich das TAB-Zeichen und das Semikolon durchgesetzt.

D2C

„Direct-to-Consumer“ beschreibt den direkten Verkauf von Produkten durch Hersteller oder General-Importeure an Endkunden, also ohne Zwischenhändler. Neben der zielgerechten Präsentation der Marke und markengerechter Kommunikation, wird auch die Markenprofilierung unterstützt. Das Unternehmen erhält zudem mehr Kontrolle beim Customer-Journey. Für Schnittstellen sind die Anforderungen ähnlich wir im B2C-Feld, die Konzentration am Point-Of-Sale setzt allerdings darüber hinaus oft eine sehr robuste Schnittstellen-Lösung voraus.

Siehe auch B2B oder B2C.

Data-Warehouse

Ein Data-Warehouse ist eine für Analyse-Zwecke optimierte Datenbank. Die entsprechende Datengrundlage entsteht aus der Integration von unterschiedlich strukturierten und verteilten Datenbeständen in einer gemeinsamen Datenstruktur. Dazu werden Daten aus mehreren, in der Regel heterogenen Quellen über sogenannte ETL-Prozesse übergeben und zentral im Data-Warehouse abgespeichert. Das Data-Warehouse ermöglicht daraufhin eine schnelle und flexible Verfügbarkeit von Berichten, Statistiken und Kennzahlen, wodurch eine globale Sicht auf Zusammenhänge mittels übergreifender Auswertungen gewährleitet wird - etwa zu Geschäftsprozessen, Kosten und Ressourceneinsatz. Die entsprechenden Analysen dienen oft der Erkennung von Potenzialen im Markt oder im Leistungsangebot.

Datacenter

Infos dazu, siehe Rechenzentrum

Datenanreicherung

Bei der Anreicherung von Daten ("Data Enhancement", oder auch "Data Enrichment") werden Daten aus einem Datenkreis durch zusätzliche Daten ergänzt. So können beispielsweise detaillierte Informationen über Artikel, die ausschließlich in einem PIM ("Produkt-Informationssystem") vorliegen, zur Anreicherung von elementaren Daten aus dem ERP-System herangezogen werden. Auf diese Weise werden die Stammdaten aus dem ERP, wie Artikelnummern, Bestände und Preise, durch die ergänzenden Daten aus dem PIM zu einem vollständigen und informativen Datensatz für einen Online-Shop.

Datenbank

Eine Datenbank ist ein elektronischer Speicher, der zur strukturierten Organisation von Daten dient. Die Nutzung einer Datenbank erfolgt auf Basis eines Datenbank-Systems, das als Programm-Instanz installiert sein muss. Datenbanken innerhalb einer Instanz finden somit dieselbe Betriebsumgebung vor. Die Sicherheit, Programmierbarkeit und Nutzbarkeit von Daten wird innerhalb der Datenbank durch interne Mechanismen und Strukturen Tabellen, Spalten, Regeln, Typisierung etc.) gesteuert. Neben Zugangs- und Betriebssicherheit sowie Stabilität, gewährleisten Datenbanken unter anderem auch einen Multi-User-Zugriff und eine hohe Performance, ebenso wie die Überwachungsmöglichkeit, Nachverfolgbarkeit und Skalierbarkeit. Eine Datenbank ist somit ein äußerst mächtiges Werkzeug und bietet sehr viele Vorteile gegenüber den rein dateibasierten Lösungen wie EXCEL.

Datenbank-CLI

Ein Call-Level-Interface (CLI) ist eine Schnittstellen-Spezifikation für eine relationale Datenbank, um den Zugriff auf die Daten aus Anwendungen heraus zu ermöglichen. Die bekanntesten Datenbank-CLI’s sind ODBC (Open Database-Connectivity) und JDBC (Java Database-Connectivity). Sie erlauben den Zugriff zur Datenbank mit einem mehr oder weniger einheitlichen Befehlssatz wie ANSI-SQL.

Ähnlich wie bei einem Treiber zum Ansteuern von Hardware wird das CLI dabei zum Ansteuern der Datenbank benötigt. Es stellt die Vermittlungsschicht dar, um mit den Befehlen Daten abzurufen, zu verändern oder einzufügen – dem sogenannten DML-Befehlssatz. Somit müssen Programmierer den Funktionsumfang zum Ansprechen unterschiedlicher Datenbanken nicht für jedes Programm neu schreiben, sondern greifen auf ein einheitliches Interface zurück.

Direkte Datenbankzugriffe erlauben im Gegensatz dazu gleichwohl nicht nur die Nutzung von DML (Abkürzung für Englisch „data-modification-language“), sondern zusätzlich DDL („data-definition-language“), um etwa Datenbank-Strukturen anzulegen, zu verändern oder abzufragen sowie DCL („data-control-language“), um damit Berechtigungen zu managen.

Datenbankcontainer (DATANAUT)

Ein Datenbankcontainer definiert eine sortierte Liste von Datenbankverbindungen, wobei die zu Grunde liegenden Datenbankverbindungen auch unterschiedliche Datenbankformate repräsentieren können. In den Apps sind diese Container ebenso ansprechbar wie sonst beispielsweise einzelne Verbindungen mit Datenbanken. Bei Abarbeitung der Prozessschritte werden Operationen auf Quellen oder Zielen, die auf Datenbankcontainern basieren, sukzessiv gemäß der definierten Reihenfolge im Container verarbeitet. Sind beim Start einer App die im Container definierten Datenbanken verfügbar, kann durch Konfigurationsmerkmale wahlweise die Fortführung oder der Abbruch der App gesteuert werden.

Datenbankprofil (DATANAUT)

Ein Datenbankprofil beinhaltet alle Einstellungen zum Zugriff auf eine Datenbank und stellt die physische Verbindungsebene dar. Das Datenbankprofil kann optional einem Aliasprofil zugewiesen werden, unter dem dann die App auf Basis dieser Zuweisung Daten verarbeiten kann.

Datenintegration

Unter Datenintegration versteht man die Zusammenführung von Daten aus mehreren unterschiedlichen Quellen. Ein Datenintegrationsprozess umfasst den Abruf, die Bereinigung, die Transformation sowie das Mapping der Daten gemäß den Datenstrukturen auf dem Zielsystem. Im Fokus steht die Bereitstellung der notwendigen Informationen auf einem System oder Endpunkt, der die entsprechenden Daten nutzen kann. Datenintegration spart Zeit, reduziert Fehler, ermöglicht die Vereinheitlichung von Systemen und verbessert die Zusammenarbeit.

Datenkonsolidierung

Die Konsolidierung von Daten ist eine Methode der Datenverarbeitung. Dabei werden Daten aus verschiedenen Quellen strukturell und inhaltlich so angeglichen, dass sie für bestimmte Anwender, Anwendergruppen oder Anwendungszwecke den Notwendigkeiten entsprechend angepasst und zielgerichtet präsentiert werden. Datenkonsolidierung kommt laufend bei der Entwicklung von Schnittstellen zur Anwendung, etwa um ERP und Online-Shops zu verbinden.

Datenmigration

Durch die Datenmigration erfolgt ein Umzug von Daten. Die Daten werden durch eine geeignete Lösung beispielsweise von System „A“ nach System „B“ übertragen. Somit dient die Datenmigration der Nutzung bereits bestehender Daten in einer neuen Umgebung. Eine Datenmigration steht daher zumeist in Verbindung mit dem Wechsel auf ein anderes Softwareprodukt, oder einer Änderung der IT-Infrastruktur. Nach einer Übergangsphase wird das abzulösende System zumeist abgeschaltet oder gelöscht, wodurch die Migration dann abgeschlossen wird.

Datenreplikation

In der Datenreplikation werden Kopien von Daten angefertigt und an einem oder mehreren Endpunkten zur Verfügung gestellt. Im Rahmen des Prozesses werden die zu replizierenden Daten aus der Datenquelle abgerufen, zum Endpunkt übertragen und dort hinterlegt. Es wird zwischen synchronen und asynchronen Lösungen unterschieden. Synchrone Lösungen sind zumeist nur durch eine Integration von externen Datenbanken oder durch herstellereigene Zusatzprodukte möglich. Bei der asynchronen Lösung stehen die Daten mit geringer zeitlicher Verzögerung bereit.

Datenstrukturen

Eine Datenstruktur ist ein informationstechnisches Objekt, das zur Speicherung und Organisation von Daten dient. Die Struktur beschreibt, wie und in welcher Weise Daten angeordnet und verknüpft sind, um den Zugriff auf die Daten zu ermöglichen. Die Definition der Datenstrukturen erfolgt im Allgemeinen durch Spezifikation zur Datenhaltung und der dazu nötigen und möglichen Operationen. Grundlegende Elemente von Datenstrukturen sind etwa Schemata, Tabellen, Datensätze, Felder, Arrays, Listen und Mengen. So bilden Felder oder Feld-Gruppen (Arrays, Listen) einen Datensatz, der wiederum Bestandteil einer Tabellenstruktur ist. Die gleichartig organisierte Menge von Datensätzen entspricht der Tabelle, die wiederum in einem Schema der Datenbank untergeordnet sind. Datenstrukturen sind nicht nur durch die enthaltenen Daten charakterisiert, sondern auch durch die möglichen Operationen auf den Daten, die den Zugriff und die Verwaltung ermöglichen und realisieren.

Datensynchronisation

Datensynchronisation definiert den fortlaufenden Abgleich von Daten zwischen mindestens zwei Systemen, sowie deren fortlaufende Aktualisierung bei Änderungen. Aktuelle Softwarelösungen stellen schnelle und leistungsfähige Werkzeuge bereit, um die Aufgaben der Datensynchronisation zu automatisieren. Die Datensynchronisation sorgt für bereinigte, vollständige sowie korrekte Daten und stellt eine einheitliche Datenlage zwischen den beteiligten Endpunkten sicher. Idealerweise sorgt die Datensynchronisation dafür, dass relevante Daten stets einheitlich sind.

Digitale Signatur

Eine digitale Signatur ist ein asymmetrisches Krypto-System. Hiermit kann ein Sender durch seinen geheimen Schlüssel (dem Private-Key) zu einer digitalen Nachricht einen Wert berechnen, der ebenfalls digitale Signatur genannt wird. Diese Signatur ermöglicht es, mithilfe des öffentlichen Schlüssels (dem Public-Key) die Urheberschaft und Integrität der Nachricht zu prüfen. Um eine mit einem Signaturschlüssel erstellte Signatur zuordnen zu können, muss der zugehörige Verifikationsschlüssel dieser Person zweifelsfrei zugeordnet sein. Digitale Signaturen entsprechen nicht zwangsläufig elektronischen Signaturen, die ein Begriff in der Rechtsprechung sind.

DSR (DATANAUT)

DSR steht für Dynamical SQL Replace und ist eine wichtige Funktion zur Weiternutzung von Daten in Skripten. So lassen sich alle aus einem Datensatz hervorgehenden Daten mittels einer Notationsvereinbarung in Skripte direkt einbinden und so weiter verwenden. Als Datenquelle kommt die Datenabfrage des letzten Prozessschritts, oder die Datenmenge einer Iteration in Betracht. Die Steuerung der Daten erfolgt über den Datensatzzeiger, einzelne Attribute werden identifiziert über den Feldnamen.

Entität

Als Entität wird in der Datenmodellierung ein eindeutig bestimmbares Objekt bezeichnet. Über die Entität werdenzusammengehörige Informationen gespeichert und verarbeitet. Beispiele von Entitäten sind Kunden, Artikel, Maschinenoder Fahrzeuge. Eine Entität kann mit anderen Entitäten in Beziehung stehen, etwa Kunden, die Maschinen sowie Werkzeuge ausgeliehen haben und Verbrauchsmaterial sowie Zubehör auf Basis der Artikel im ERP gekaufthaben. Im Rahmen des Datenmodells wird ein Entitätstyp als Tabelle in der Datenbank umgesetzt. Jede ihrer Tabellenzeilen dieser Tabelle (auch Datensatz Tupel) kann eine Entität repräsentieren. Als eindeutiger Identifikator wird üblicherweise ein Primärschlüssel verwendet, den die Datenbank in der Regel automatisch beim Anlegen des Datensatzes erstellt. Die Beziehungen zu anderen Entitäten werden über sogenannte Fremdschlüssel gebildet, wobei demnach der Primärschlüssel einer bestimmten Entität als Referenz bei einer anderen Entität hinterlegt wird.

ER-Diagramm

Ein ER-Diagramm visualisiert die organisatorische Struktur einer Datenbank, dem sogenanntem Datenmodell. Das ER-Diagramm stellt somit den Aufbau der Datenbank auf Basis der konfigurierten Tabellen, Regeln und Einstellungen detailliert dar. Auf diese Weise werden auch die Beziehungen zwischen verschiedenen Tabellen sichtbar Ein ER-Diagramm bildet die Grundlage für eine einfache, schnelle und übersichtliche Form der digitalen Bearbeitung des Datenmodells mit Hilfe eines entsprechenden Editors. Nach einer Änderung lassen sich vom Editor aus Anweisungen für die Datenbank generieren, die als Befehle ausgeführt werden können, um die gewünschten Anpassungen im Datenmodell vorzunehmen.

ERP

Enterprise-Resource-Planning (ERP) bezeichnet die Aufgabe, Ressourcen zu planen, zu steuern und zu verwalten. Der Begriff wird für entsprechend funktionelle Software-Systeme genutzt. Eine ERP-Software sorgt demnach dafür, dass beispielsweise erforderliche Materialien zur Herstellung von Erzeugnissen zur richtigen Zeit an der richtigen Stelle und in der richtigen Menge zur Verfügung stehen. ERP-Systeme benötigen häufig Schnittstellen zu spezialisierten Lösungen, wie etwa einem Hochregallager, einem Online-Shop oder einer Lieferantenlösung. Eine Vielzahl von Geschäftsanwendungen und Betriebsdaten werden durch ERP-Systeme in einer zentralen Datenbank verarbeitet.

ETL

ETL steht für „Extract, Transform, Load“ und beschreibt einen Prozess zum Abruf, zur Aufbereitung sowie zur Bereitstellung von Daten. Ein ETL-Prozess stellt demnach eine Schnittstelle zwischen einem oder mehreren Quellsystemen, sowie einem bestimmten Zielsystem dar. Die gewünschten Daten werden zunächst an ihren Quellen extrahiert („extract“) und für das Zielsystem inhaltlich sowie strukturell transformiert („transform“), um sie letztlich in das Zielsystem zu laden („load“). Insbesondere im Kontext von Data-Warehouses und Datenanalysen ist ETL relevant und begrifflich verortet.

Firewall

Eine Firewall ist eine digitale Schutztechnologie, die Netzwerkbereiche voneinander trennt und nach definierten Regeln Datenpakete verarbeitet. Durch die Regeln können auch Ein- und Ausgänge (Ports) geöffnet gesperrt und überwacht werden. Auf dieser Basis werden ankommende Datenpakete, die zwischen den Netzwerkbereichen ausgetauscht werden sollen, überwacht und anschließend entweder abgelehnt, umgeleitet oder angenommen und weitergegeben Firewalls sind zumeist schon als Softwaremodule auf digitalen Endgeräten wie PCs und Servern standardmäßig installiert und aktiviert. Unternehmen setzen Firewalls jedoch vielfach in Form sogenannter Hardware-Appliances ein Dies sind hochspezialisierte rechnerbasierte IT-Systeme, die aus einen Netzwerk-Switch, Prozessoren Speicher und Software bestehen und entsprechend leistungsfähig sind.

FTP / File-Transfer-Protocol

FTP (File-Transfer-Protocol) beschreibt ein Protokoll zum Datenaustausch, welches Dateien und Ordner übertragen und managen kann. In diesem Rahmen unterstützt es auch die dafür notwendige Authentifizierung an einem Server. Nach der Anmeldung erhält ein Client einen Dateipfad als Einstiegspunkt, der ihm die Navigation in der darunterliegenden Ordnerstruktur ermöglicht. Sowohl Dateien als auch Ordner können, je nach Ausgestaltung der Zugangsrechte, durch den Client abgerufen und gelöscht, aber auch vom eigenen System auf den Server übertragen werden.

FTPS (FTP over SSL) und SFTP (SSH File Transfer Protocol, auch bekannt als Secure-File-Transfer Protocol) stellen Weiterentwicklungen des FTP-Protokolls mit verbesserter Sicherheit dar.

FTPS verwendet dabei mehrere Verbindungskanäle, was bedeutet, dass mehrere TCP/IP-Ports für die Authentifizierung und das Weiterleiten von Befehlen verwendet werden. Jedes Mal, wenn eine Anforderung zur Dateiübertragung oder zu Verzeichnislisten gestellt wird, muss eine andere Portnummer für den Datenkanal geöffnet werden. Somit müssen mehrere Ports in der Firewall freigegeben werden, was ein hohes Sicherheitsrisiko darstellen kann.

SFTP verwendet im Gegensatz dazu nur eine einzige Verbindung. Das bedeutet, dass in der Firewall nur ein Port geöffnet und auf dem ausgewählten Port öffentlich zugänglich sein muss, was das Sicherheitsmanagement erleichtert. SFTP implementiert eine vollständig gesicherte Client- und Serverkommunikation und kann dabei zwischen unsicheren FTP-Verbindungen und sicheren FTPS-Verbindungen umschalten. Infolgedessen vereinfacht SFTP Administratoren die Durchsetzung von einfacheren Standards für die IT-Sicherheit. SFTP bietet zudem eine breitere plattformübergreifende Unterstützung als FTPS.

FTPS

Infos dazu, siehe FTP

Hash

Der Hash ist ein Datenwert, der auf Grundlage anderer Daten ermittelt wird. Eine Hash-Funktion liefert den Hashwert auf Basis der entsprechenden als Parameter übergebenen Daten. Dies ist verfahrenstechnisch mit dem Ermitteln einer Quersumme vergleichbar, allerdings mit einem wesentlichen Unterschied. Bei einer Quersumme ist die Position der addierten Werte für das Ergebnis völlig irrelevant. Hingegen führt bei einer Hash-Funktion die kleinste Veränderung der Parameter zu einem völlig anderen Hashwert. Hashwerte werden oft verwendet, um Datenblöcke schneller und einfacher vergleichen zu können, da statt des gesamten Datenblocks jeweils nur die deutlich kürzeren Hashwerte zum Vergleich herangezogen werden.

Headless

Als Headless bezeichnet man IT-Systeme wie Computer, Server sowie Software-Lösungen die ohne eine grafische Oberfläche zur Ein- und Ausgabe angesprochen werden können. Dabei ist die Benutzeroberfläche (Frontend) von den internen Prozessen (Backend) getrennt.

Um Daten auszutauschen und Aufträge an das System zu erteilen, wird in der Regel über eine API kommuniziert, die eine standardisierte Programmierschnittstelle (Interface) darstellt. Viele Datenbanken, Programme und Rechnersysteme erlauben darüber hinaus die Kommunikation per Kommandozeile, durch Skripte auf Datenbank-Ebene oder auch mittels Dateien. Ebenso sind Sensoren und Maschinen als signal- und datengebende Kommunikationswerkzeuge denkbar.

Der Begriff und das Konzept Headless finden insbesondere in der Cloud verstärkt ihre Verwendung, etwa beim E-Commerce sowie entsprechenden Plug-In’s oder auch Schnittstellen-Lösungen für den Datenaustausch. So können externe Anwendungen mit dem Backend über das API-Interface (in der Regel mittels REST-Protokoll) kommunizieren und dabei Daten sowie Informationen austauschen. Das Konzept bietet somit die Möglichkeit, Daten und Logik einer großen Zahl von Nutzern und Anwendungsszenarien einfach zur Verfügung zu stellen, wie etwa in einem Shop-System oder auf einer Web-Seite.

Initiale Datenmenge (DATANAUT)

Eine Initiale Datenmenge ist ein Datencursor, der auf einer beliebigen Datenbankverbindung mittels SQL abgefragt wird. Die Anzahl der Datensätze bestimmt die Anzahl der Wiederholungen (Iterationen) für eine App. Mit jedem Datensatz lassen sich die Daten zur Initialisierung von DSR- und SQL-Parametern nutzen und stehen auch in der DATANAUT Textersetzungsklasse zur Verfügung.

IoT

Der Sammelbegriff „Internet of Things“, kurz IoT, steht für die Technologien der globalen Informationsgesellschaft in Form physischer und virtueller Objekte, sowie deren Vernetzung. Objekte können sowohl einfache Geräte als auch komplexe Maschinen sein, die über das Internet weltweit erreichbar sind, wodurch die Zusammenarbeit und der Datenaustausch mittels der gegebenen Informations- und Kommunikationstechniken ermöglicht wird. Ein einfaches IoT-Objekt stellt die Kamera eines Sicherheitssystems dar. Im Falle eines Alarms, lädt sie digitale Bilder in eine private Cloud und informiert den Besitzer des Hauses über den Vorfall, per SMS oder E-Mail. Der Besitzer kann über eine App die Kamera potentiell steuern. Die Grundlage des IoT bilden somit das Internet Mikroprozessoren sowie Künstliche Intelligenz, wodurch es als zentraler Schlüsselbegriff im Rahmen der Digitalisierung gilt.

Iterationen (DATANAUT)

Eine Iteration ermöglicht die von einer Datenmenge gesteuerte Wiederholung einer App, wobei Attribute und Feldinhalte als Parameter grundsätzlich in der gesamten App genutzt werden können. Die Wiederholungen richten sich nach der entsprechenden Initialen Datenmenge.

JSON

JSON ("JavaScript Object Notation") ist ein kompaktes Datenaustauschformat. Textbasierte Daten sind dazu in strukturierter Form organisiert und in einer menschenlesbaren Datei gespeichert. Einzelne Datensätze, sowie dazugehörende abhängige Daten, beginnen jeweils mit einer öffnenden Klammer und enden mit einer schliessenden Klammer. JSON wird vor allem zum Datenaustausch zwischen verschiedenen Anwendungen eingesetzt. Das Dateiformat bildet den Standard zur Datenübertragung in Webanwendungen und mobilen Apps, vor allem für REST-APIs. JSON wird auch oft bei der Programmierung zur Strukturierung von Daten verwendet, ist jedoch von keiner Sprache abhängig, da es für Maschinen einfach zu generieren und zu parsen ist. In der Regel benötigt das Format weniger Meta-Daten, als beispielsweise eine XML-Struktur mit gleicher Datenbasis, und produziert somit einen geringeren Overhead.

Kataloge (DATANAUT)

In Katalogen wird auf ausführbare Apps und Applikationscontainer verlinkt. Die Einträge können hierarchisch in einer Baumstruktur organisiert werden. Jedem Link kann optional ein Kommandoprofil und ein abweichender Name für den Link zugewiesen werden. Die Zugriffsrechte von Benutzern auf Kataloge lassen sich über eine ACL steuern Benutzer können alle in Katalogen sichtbaren Apps und Applikationscontainer direkt starten und ausführen.

Künstliche Intelligenz / KI

Künstliche Intelligenz ist die Fähigkeit einer softwaregesteuerten Maschine, menschliche Fähigkeiten wie das logische Denken, das Lernen, Planung und Kreativität nachzuahmen. Durch KI ist es einem System möglich, Zustände und andere Umgebungsparameter in Form von Daten wahrzunehmen, mit dem Wahrgenommenen umzugehen und anschließend Entscheidungen zu treffen, mit denen sich Probleme lösen lassen, um ein bestimmtes Ziel zu erreichen.

Kommandoprofile (DATANAUT)

Einer App können optional beliebige Kommandoprofile zugewiesen werden, wobei jedes Kommandoprofil einen eindeutigen GUID erhält. In einem Profil sind entweder alle Kommandoparameter oder nur ein Teil davon eingestellt. Dadurch kann die App mit nur einem GUID als Parameter gesteuert werden. Zur eigentlichen Ausführung der App werden in der Folge automatisch die weiteren Parameter aus dem Profil gezogen, optional können diese auch dynamisch überschrieben werden.

Kommandozeile (CLI) / Befehlszeile

Die Kommandozeile (englisch CLI – „command-line interface“, siehe auch Datenbank-CLI) ist im Gegensatz zu einer graphischen Oberfläche (GUI – „graphical user-interface“) potentiell Teil eines Computerprogramms.

Durch eine Kommandozeile können beim Programmaufruf eine oder mehrere individuelle Textzeilen als Eingabeparameter übergeben werden. Dabei wird zwischen Daten- und Steuerparametern unterschieden. Die programmspezifische Syntax regelt, in welcher Form und mit welcher Schreibweise die Parameter zu übergeben sind, damit sie bestimmungsgemäß interpretiert werden können. In manchen Fällen ist dabei auch die Angabe von Dateinamen möglich, in denen sich dann weitere Parameter befinden.

Die Kommandozeile (CLI) ist die einfachste Methode zur Interaktion mit einem Computerprogramm und somit eine direkte Möglichkeit der Interaktion zwischen Mensch und Computer.

Konnektivität (DATANAUT)

DATANAUT stellt native Verbindungen zu allen gängigen Datenbanken wie Advantage Database Server (ADS), PostgreSQL, MySQL und Oracle her. Zusätzlich können alle Datenstrukturen genutzt werden, für die Datenquelltreiber wie ODBC oder OLE/DB zur Verfügung stehen. In Applikationen können verschiedene Datenverbindungen gleichzeitig genutzt werden. Diese können wahlweise auf einer generischen oder individuellen Bearbeitungslogik für unterschiedliche Datenbanken und Datenstrukturen basieren. Mit DATANAUT können Sie strukturierte Daten über Datengrenzen hinweg verarbeiten. Daten können über konfigurierbare Verbindungen beispielsweise aus einer Datenbank gelesen, verarbeitet und anschließend direkt in andere beliebige Datenbanken importiert werden.

Low-Code

Low-Code steht für ein Programmier-Paradigma, durch das Software nicht mehr auf Basis von Modulen, Klassen und Quellcodes erzeugt wird, sondern durch Modellierung mit Hilfe entsprechender Werkzeuge. So können selbst Laien (sogenannte Citizen-Developer) funktionierende Lösungen herstellen. Low-Code ist durch die Abhängigkeit seiner eigenen Modellierungspotentiale limitiert. Steht für eine bestimmte Problematik kein Modell für die Lösungsherstellung zur Verfügung, kann die Lösung nicht umgesetzt werden - dies betrifft besonders komplexere Prozesse. In solchen Fällen muss zunächst das Modell implementiert werden, um dann die Lösung zu entwickeln. Diesem Problem unterliegt die klassische Programmierung nicht. Hier vereinfachen Programmierwerkzeuge und -methoden die Herstellung von Lösungen, etwa durch die Nutzung vorgefertigter Bausteine. Diese Herangehensweise reduziert den Aufwand für die Quellcode-Herstellung erheblich, erhält jedoch den Raum zur Erstellung jeder erdenklichen individuellen Lösung.

Makro

Als Makro wird ein gespeicherter menschenlesbarer Programm-Code bezeichnet, der in einer bestimmten Software-Umgebung ausführbar ist, etwa in MS-EXCEL. Der Code enthält aufgezeichnete Informationen und Anweisungen, die sich aus Benutzereingaben sowie aus Benutzeraktionen, wie etwa dem Klicken von Buttons, zusammensetzen. Aktivitäten innerhalb eines Programms werden dazu mittels einer Makro-Aufzeichnung fortlaufend festgehalten und können am Ende der Aufzeichnung in einer Datei gespeichert werden. Durch Makros ist es möglich, automatisch alle notwendigen Einzelschritte des Benutzers zu wiederholen und damit erneut nach und nach ausführen zu lassen, ohne selbst die einzelnen Klicks auszuführen und Eingaben zu tätigen. Das Makro kann demnach als eine Art Simulation der händischen Aktivitäten eines Benutzers verstanden werden.

Meta-Daten

Meta-Daten sind strukturierte Daten, die andere Daten beschreiben und somit Informationen zu ihren Merkmalen enthalten. Dabei handelt es sich zumeist um größere Datensammlungen, wie Dokumente, Dateien oder auch Datenbanken. Meta-Daten bieten den Vorteil, diese Datensammlungen zu kategorisieren, zu indexieren und somit auch zu einem späteren Zeitpunkt viel leichter wiederzufinden. Eine Datei betreffend, enthalten die Meta-Daten unter anderem Informationen zu Merkmalen wie Name, Endung, Größe, Datum der letzten Dateiänderung oder den Schreibschutz.

Operational Data Store / ODS

Ein Operational Data Store (ODS) ist eine themenorientierte Datenbank, die der Integration und gemeinsamen Nutzung von Daten aus zumeist verschiedenen Datenquellen dient. Im ODS-System werden die Daten so bereitgestellt, dass konsolidierende Datenzugriffe möglich sind, ohne dass ein unmittelbarer Zugriff verschiedener Lösungen auf Quellsysteme notwendig wird. Durch die entsprechend technisch uniforme Datenbasis, können Datenabfragen und -änderungen wesentlich einfacher ausgeführt werden. Diese Art von Datenbank ist nicht zu verwechseln mit einem Data-Warehouse. Ein Data-Warehouse dient insbesondere Auswertungszwecken und hat damit, im Gegensatz zu einem ODS, oft selbst keinen datenverarbeitenden Charakter. Im Kontext von Schnittstellen dient das ODS als lösungsorientierte Datenbasis für das sogenannte Staging.

Plug-In

Bei einem Plug-In handelt es sich um eine Software-Komponente, die als optionales Produkt an eine prinzipiell vollständige Softwarelösung angeschlossen werden kann. Einzelne Plug-Ins sind auf bestimmte Anwendungsfälle ausgerichtet, wie beispielsweise den Checkout-Prozess in einem Online-Shop mittels PAYPAL. Hier greift das Plug-In über die API der Softwarelösung ein und ermöglicht den entsprechenden Bezahlvorgang. Somit wird die Softwarelösung um Funktionalitäten ergänzt, die ursprünglich nicht vorhanden waren. Plug-Ins werden am freien Markt überwiegend von Drittherstellern angeboten und entstehen oft aus individuellen Kundenwünschen oder allgemeinen Anforderungen, die der Softwarehersteller selbst nicht umsetzen kann oder will. Anbieter, wie beispielsweise die Shopware AG, fördern die Herstellung von Plug-Ins, indem etwa funktionsstarke APIs und eigens geschaffene Marktplätze zur Verfügung gestellt werden.

Profile - allgemein (DATANAUT)

Profile dienen der breiten Nutzbarmachung einheitlicher Einstellungen für alle möglichen Prozesse in den Apps. Sie können beispielsweise ein hauseigenes Exportprofil für CSV-Dateien oder für EXCEL in allen Apps sowie dem SQL Werkzeug vereinbart und einfach genutzt werden, ohne das wiederholt Einstellungen in allen Apps durchgeführt werden müssen. Änderungen an Profilen greifen sofort auf Apps durch, die nach der betreffenden Änderung gestartet werden. Profile werden mit einem Profileditor bearbeitet.

Profilmanager (DATANAUT)

Profilmanager fassen Gruppen von Einstellungen zusammen. Entsprechende Editoren dienen der Bearbeitung einzelner benannter Profile. Die Grundfunktionen eines Editors sind für alle Typen von Profilen einheitlich. Profile lassen sich beispielsweise suchen, anlegen oder kopieren. Für bestimmte Profile stehen Testfunktionen zur Verfügung, etwa um den Verbindungsaufbau zu einer Datenbank zu prüfen.

Programmprofile (DATANAUT)

Programmprofile beinhalten die Konfiguration von Skriptinterpretern oder anderen externen Programmen, die sich über eine Plug-In Schnittstelle in einzelne Prozessschritte der Apps einbinden und im Rahmen der Ausführung von Apps automatisch starten lassen. Externe Programme können dadurch beispielsweise vorbereitete Daten spezialisiert weiter verarbeiten. Von DATANAUT erhobene Daten lassen sich über DSR und Textersetzung direkt in den Code von Skriptsprachen einbinden und nutzen.

Prozessschritte (DATANAUT)

Ein Prozessschritt definiert eine diskrete Aktion in der App. Dies kann beispielsweise ein Datenexport oder eine SQL-Abfrage sein. Prozessschritte basieren auf den integrierten Funktionen von DATANAUT, die allgemein die Logik von Datenverarbeitungsprozessen abbilden. Optional kann eigener Code eingebracht werden. Wie ein Prozessschritt arbeitet, wird durch die individuellen Einstellungen gesteuert. Mittels Iterationen, Parametern und weiteren Merkmalen lassen sich Prozessschritte für höchst unterschiedliche Einsatzzwecke herstellen und in einer App einsetzen.

Pseudonymisierung

Ähnlich wie bei der Anonymisierung, werden durch die Pseudonymisierung ebenfalls Veränderungen an Daten vorgenommen, wobei hier ein Identifikationsmerkmal durch ein Pseudonym, wie etwa ein Nummerncode, ersetzt wird. Dabei bleiben Bezüge verschiedener Datensätze, die auf dieselbe Art pseudonymisiert worden sind, erhalten. Die Pseudonymisierung ermöglicht somit weiterhin eine Zuordnung von Daten zu einer Person oder Sache, da eindeutige Schlüssel ihre Basis darstellen. Ohne diese Schlüssel ist es zumeist nur schwer möglich, einen direkten Bezug zu einer den Daten zugrundeliegenden Person oder Sache herzustellen, da diese die Zusammenführung der pseudonymisierten Daten mit ihren Grunddaten nicht mehr zulassen.

Rechenzentrum

Rechenzentren sind IT-Systemlösungen, die über eine gesamte Infrastruktur verfügen - für den effizienten und effektiven Betrieb sowie zur entsprechenden Wartung von IT-Servern. Sie besitzen neben der notwendigen Stromversorgung für Betrieb und Klimatisierung zumeist auch einen Zugang zu kühler Außenluft oder Wasser, um diese Elemente in der eigenen Infrastruktur zur Wärmeübertragung einzusetzen. Einige Rechenzentren befinden sich aus diesem Grund unter Wasser oder unter der Erde. Rechenzentren stehen vielfach auch in räumlicher Nähe zu Businesszentren und Glasfaser-Backbone-Routen. Bei der Errichtung oberhalb der Erde wird auf Distanz zu Überschwemmungsgebieten sowie generell zu Gebieten mit hoher Wahrscheinlichkeit für Naturkatastrophen geachtet. Somit eignen sich Rechenzentren besonders für den Einsatz in geschäftskritischen Aufgaben und Aktivitäten sowie notwendigerweise im Kontext hoher Verfügbarkeit von IT-Systemen.

REST

Der Begriff Representational State Transfer, kurz REST, beschreibt ein Paradigma für die Softwarearchitektur von verteilten Systemen, insbesondere für Webservices. REST zeichnet sich durch seine Flexibilität aus. Der besonderer Vorteil von REST liegt darin, dass im World-Wide-Web bereits ein Großteil der notwendigen Infrastruktur vorhanden ist, wodurch viele Web-Dienste, wie Web- und Application Server, HTML- und XML-Parser und HTTP-fähige Clients, REST-konform sind. Sein Zweck liegt schwerpunktmäßig in der Maschine-zu-Maschine-Kommunikation, indem beispielsweise eine Repräsentation des Ressourcenstatus an den Endpunkt der Anforderung übertragen wird. REST bildet eine einfache Alternative zu ähnlichen Verfahren der Online-Datenübertragung, wie SOAP und WSDL.

SaaS

Software as a Service, kurz SaaS, ist als eine Art Software im Abo zu verstehen und zählt zur Sparte des Cloud-Computings. Statt in die eigenständige Anschaffung zu investieren, mietet der Service-Nehmer hier eine Hard- und Software als umfassende Komplettlösung. Durch das SaaS-Modell entfallen die meist hohen Anschaffungs- und Betriebskosten, da der Service-Anbieter die gesamte Infrastruktur sowie die Software bereitstellt. Im Bereich der Services werden dabei sowohl die Administration als auch weitere Dienstleistungen, wie Wartungs- und Softwareaktualisierungen, übernommen. SaaS ermöglicht dem Service-Nehmer also ein Arbeitspaket, bestehend aus einer Komplettlösung sowie Service-Leistungen, gegen eine regelmäßige Gebühr im Rahmen eines Abos zu nutzen.

SCRUM

SCRUM ist ein methodenbasiertes Framework für Projektmanagement und optimiert die Prozess-Organisation sowie die Zusammenarbeit von Teams. Die Verbesserungen entstehen durch das Lernen aus den gemeinsamen Erfahrungen, der Selbstorganisation bei der Problembehebung, sowie durch Reflektion bei Erfolgen und Niederlagen. Teams sollen durch SCRUM in die Lage versetzt werden, sich kontinuierlich weiterzuentwickeln und fortlaufend reflektierend aus gemeinsamen Erfahrungen, der Selbstorganisation während der Problembehebung, sowie aus Erfolg und Niederlagen zu lernen. SCRUM wird vielfach in der agilen Softwareentwicklung genutzt.

SFTP

Infos dazu, siehe FTP

SHA-2

SHA-2 steht für den Secure Hash Algorithm und ist der Oberbegriff für kryptografische Hashfunktionen. Sie umfassen diverse Standards mit verschiedenen Schlüsselgrößen, wodurch das „Knacken“ entsprechend verschlüsselter Daten zunehmend erschwert wird. Die Anwendungsgebiete liegen neben der Integritätsprüfung von Dateien und Nachrichten, auch in der sicheren Speicherung von Passwörtern und digitalen Signaturen. Darüber hinaus ist ihr Einsatz für Zufallszahlengeneratoren und zur Konstruktion von Blockchiffren möglich. Eine wichtige Eigenschaft der Hashfunktionen stellt die Kollisionssicherheit dar, wodurch es praktisch unmöglich ist, zwei unterschiedliche Eingabewerte zu finden, die einen identischen Hashwert ergeben. Auf diese Weise können zum Beispiel Manipulationen von Daten erkannt werden, sodass SHA-2 auch als eine Art digitaler Fingerabdruck für Daten verstanden werden kann.

Signierung

Infos dazu, siehe Digitale Signatur

Skripte besser managen (DATANAUT)

DATANAUT kann Code von Skriptsprachen auch direkt in Prozessschritten einer App speichern, beispielsweise um diesen zu schützen. Alternativ kann auf vorlagenartige Skripte eines Repository verwiesen werden, so dass die Skripte bei Bedarf von dort zentral abgerufen werden. Auch der Abruf extern gespeicherter Skriptdateien ist möglich. Skripte können so mit anderen Anwendungen gemeinsam genutzt werden. Durch die indirekte Speicherung lassen sich Skripte einfacher managen und pflegen. Änderungen müssen nur einmalig an einer Stelle im Repository oder in einer Datei durchgeführt werden. Alle Änderungen greifen sofort auf Applikationen durch, die ein geändertes Skript verwenden.

Skripte durch Daten dynamisch gestalten und ausführen (DATANAUT)

In allen Skriptsprachen können Daten aus Prozessen herangezogen und für die Bildung von Programmcode oder als Parameter zur Ausführung genutzt werden. Zusätzlich ist es möglich, per Datenabfrage eine initiale Datenmenge abzurufen, die einer Applikation als Basis für ein Schleifenkonstrukt voran gestellt wird. Die Ausführung der gesamten Applikation wird nun so oft wiederholt, wie Datensätze in der Datenmenge vorkommen. Bei jeder Wiederholung stehen die Daten des jeweils aktuellen Datensatzes der initialen Datenmenge in den Prozessschritten der gesamten Applikation zur Verfügung. Die Daten mutieren dabei inhaltlich mit jedem neuen Datensatz automatisch.

Auch Variablen der DATANAUT Textersetzungsklasse lassen sich dynamisch in Skripte einsetzen. Die Textersetzungsklasse ruft vor der Ausführung eines Skripts die mit einer Variablen assoziierten Daten aus dem Environment des Computers oder aus DATANAUT-Prozessen ab und bindet sie direkt in den Skriptcode ein. Die Textersetzungsklasse kann auch zur Bildung von Dateinamen herangezogen werden, wenn beispielsweise Skriptdateien dynamisch gelesen werden müssen.

SOAP

Das Simple Object Access Protocol, kurz SOAP, legt eine Spezifikation bzw. ein Regelwerk für ein Standard-Kommunikationsprotokoll zum XML-basierten Nachrichtenaustausch fest. Vereinfacht gesagt, werden XML-Dateien mit Daten in Form von Nachrichten zwischen einem oder mehreren Systemen hin und her geschickt. SOAP verwendet zum Informationsaustausch Transportprotokolle wie HTTP (Hypertext Transfer Protocol) und SMTP (Simple Mail Transfer Protocol). Insbesondere eignet sich das HTTP-Protokoll, um mit SOAP über Firewalls und Proxies hinweg zu kommunzieren, da für die Einbettung und Weiterleitung von Datenpaketen keine entsprechenden Voraussetzungen in SOAP geschaffen werden müssen.

Sonstige Profile (DATANAUT)

Neben den vorgenannten Profilen gibt es unter anderem auch Profile in folgender Form: Benutzerverzeichnisse, Importdefinitionen, Exportdefinitionen, E-Mail und Scripte.

SSH

Infos dazu, siehe TLS

Staging

Staging findet Anwendung bei ETL und Schnittstellen. Dabei werden die seitens der angebundenen Lösung benötigten oder von dort abgerufenen Daten zwischengespeichert, konsolidiert und für die Übergabe in die beteiligten Systeme bereitgestellt. Im Rahmen von Schnittstellen-Prozessen lassen sich auf diese Weise Daten-Deltas einfacher identifizieren, wodurch Schnittstellen wesentlich effizienter arbeiten, da im Normalbetrieb der Lösung dann weniger Daten ausgetauscht werden müssen.

Stammdaten

Stammdaten sind Daten, die in Prozessen als Vorlage und Referenz dienen. In einem ERP-System sind dies insbesondere Adressen und Artikeldaten. So wird im Rahmen einer Belegerstellung zumeist eine vorhandene Adresse geladen, danach die Artikel. Bei Eingabe oder Änderung artikelbezogener Bestellmengen, resultieren die vom ERP herangezogenen Staffelpreise und Rabatte aus Daten, die über die Kombination von Kunden- und Artikeldaten des Belegs in den Artikelstammdaten gefunden werden. Würden die Preise nicht stimmen oder nicht vorhanden sein, müssten sie stets händisch im Beleg hinterlegt oder angepasst werden. In fast allen Softwarelösungen basieren Prozesse auf der elementare Nutzung und Referenzierung von Stammdaten. Daher stellt die ordentliche Pflege dieser Daten eine äußerst wichtige Disziplin des Datenmanagements dar.

Textersetzungsklasse (DATANAUT)

Die Textersetzungsklasse ist eine Funktion zur Abfrage, Nutzung und Verarbeitung von Umgebungsvariablen des ausführenden Rechners. Auch Umgebungsvariablen aus der DATANAUT Prozesswelt können abgefragt werden. Ähnlich wie bei DSR, können die Informationen mittels einer Notationsvereinbarung in Skripte oder Prozessparameter der App eingebunden und so für die Steuerung oder Datenanreicherung genutzt werden. So lässt sich beispielsweise der lokale Pfad für „Eigene Dateien“ aus einer Variable der Textersetzungsklasse abrufen und zur dynamischen Ermittlung des Ausgabepfads im Datenexport nach XML nutzen, so dass die Datei individuell auf jedem Arbeitsplatz in „Eigene Dateien“ geschrieben werden kann.

TLS

Transport Layer Security, kurz TLS, steht für Transportschichtsicherheit und ist ein Verschlüsselungsprotokoll zur sicheren Datenübertragung im Internet, das zuvor als SSL (Secure Sockets Layer) bekannt war. TLS setzt sich aus zwei Hauptkomponenten zusammen: Dem Handshake (Handschlag), der für einen sicheren Schlüsselaustausch sowie eine entsprechende Authentisierung sorgt, und der sicheren Datenübertragung, Record (Datensatz) genannt. Das funktioniert, indem Daten auf Basis der symmetrischen Schlüssel aus dem Handshake verschlüsselt und mit einem Nachrichtenauthentifizierungscode gegen Veränderungen geschützt werden. TLS sorgt demnach für die sichere, verschlüsselte Übertragung von Daten.

Tunnel

Infos dazu, siehe VPN

Unidirektionale Schnittstelle

Infos dazu, siehe Bidirektionale Schnittstelle

VPN

Das Virtual-Private-Network, kurz VPN, ist ein digitales, geschütztes und in sich geschlossenes Kommunikationsnetz, das beispielsweise Mitarbeitern den Zugriff auf das Firmennetzwerk ermöglicht, wenn diese im Außendienst oder Home-Office sind. Dabei wird unter Nutzung größtenteils öffentlicher Netzwerk-Infrastruktur ein sogenannter Tunnel aufgebaut, durch den der Datenverkehr verschlüsselt übertragen wird. Durch den Einsatz bestimmter Produkte, kann das VPN demnach die Anbindung dezentraler Endgeräte in eine zentrale Infrastruktur ermöglichen. In der Regel kommen hier Firewalls, sowie sogenannte Remote Access Points (RAP), aber auch VPN-Softwarelösungen für mobile und stationäre Endgeräte zum Einsatz. Mittels VPN erhält man ein erweitertes lokales Netzwerk, in dem sich die angeschlossenen dezentralen Endgeräte, mit Hilfe des verschlüsselten Datenverkehrs, abhörsicher bewegen können – ohne Angst vor Fremdzugriffen.

XML

Die Extensible Markup Language, kurz XML, ist ein textbasiertes Dateiformat, das menschenlesbar ist und für die Übertragung sowie Sicherung von Daten eingesetzt wird. Dabei sind die Daten in XML baumartig organisiert. XML bildet den Standard für den dateibasierten Daten- und Nachrichtenaustausch mittels APIs, die auf Basis von SOAP und WSDL implementiert sind. Begleitend zum Dateistandard sind Programmiersprachen wie XSLT implementiert. Gleichwohl besteht keine Abhängigkeit zu XSLT, so dass XML in den verschiedensten Programmiersprachen genutzt werden kann. XML-Dateien lassen sich mittels der XSLT-Sprache allerdings auf ähnliche Art abfragen, wie Datenbanken mittels SQL. Im Gegensatz zu einer JSON-Struktur mit gleicher Datenbasis, benötigt XML in der Regel mehr META-Daten und produziert somit einen höheren Overhead.

XSLT

Die Programmiersprache XSLT (Extensible Stylesheet Language Transformation) ermöglicht die Umwandlung eines XML-Dokuments in ein anderes Dokument, was Transformation genannt wird. Die XML-Dokumente werden dabei als logischer Baum betrachtet, was sowohl die Quellbäume der zu transformierenden Dokumente, als auch die Zielbäume der zu erzeugenden Dokumente umfasst, die durch die entsprechende Transformation entstehen. Das resultierende Dokument kann als XML-Datei, aber auch in Form diverser Textformate wie JSON oder CSV, ausgegeben werden. Zudem können mittels XSLT sogar Binärdateien erstellt werden.

Zertifikat

In der IT bestätigt ein Zertifikat die Echtheit digitaler Quellen, wie die einer Web-Adresse (URL) oder auch eines Programmes. Ein digitales Zertifikat ist eine signierte Datei, die in einer bestimmten anwendungskonformen Struktur ausfällt und Informationen über den Aussteller sowie Inhaber des Zertifikats menschenlesbar speichert. Die Prüfung der Echtheit und Unversehrtheit der Datei erfolgt durch einen digitalen Leseprozess, der einen öffentlichen, zum Zertifikat passenden Schlüssel nutzt. Die Verschlüsselung des Zertifikats erfolgt hingegen durch einen privaten Schlüssel. Somit ermöglicht der Besitz eines privaten Schlüssels, bestimmte Zertifikate auszustellen oder auch bestehende Zertifikate zu verändern. Zertifikate sind elementar für Vertrauen in der Kommunikation oder bei Geschäftsabschlüssen in der digitalen Welt. Zertifizierungsinstanzen werden deshalb nur durch vertrauenswürdige Organisationen oder Behörden zugelassen und bestellt.