Anzeige | Werbliche Webseite

Joint Future Work und die hardware-technische Absicherung der Arbeitswelt der Zukunft

 In Deutschland, Europa, Future Work, Hardware, IT / EDV & Infrastruktur, IT-Administration, IT-Security, Personal, HRM & Organisation, Technologie & Digitalwirtschaft

Joint Future Work und die hardware-technische Absicherung der Arbeitswelt der Zukunft

Wer möchte nicht gern in die Zukunft schauen können und schon heute wissen wollen, was das Morgen bringt?
Die Antwort auf die Frage nach der Zukunft ist auch daher interessant, wenn es darum geht, zu sehen, wohin Digitalisierung und demographischer Wandel führen werden…[1]

Eines wird die Zukunft auf alle Fälle von allen Erwerbstätigen und Managern fordern: flexibles und ständiges Umdenken und Umlernen. Es wird der Schulabgänger von heute – egal für welchen Beruf er sich entscheidet – mit großer Wahrscheinlichkeit unmittelbar vor dem Renteneintritt einen anderen Beruf ausüben als den erlernten oder studierten. Einen, in den er entweder hineingewachsen ist oder auch hineingestoßen wurde.

Der Titel des Bildes im Artikel ist „bitter fruits“ und passt daher, denn die Früchte der Zukunft sind nicht immer nur süß…

Schon heute werden einfache oder wiederkehrende Tätigkeiten zunehmend von Maschinen übernommen (Blackbox-Prozesse in der Versicherung zum Beispiel), und die wirklich komplizierten oder komplexen Arbeiten werden häufig menschlichen Arbeitern gar nicht mehr zugemutet oder in händelbare Workflows / Arbeitsschritte zerstückelt.
Der Trend der Zeit geht dahin, dass die den Maschinen übertragenen Tätigkeiten immer komplexer werden und damit einhergehend sich auch die Anforderungen an die Berufstätigen entsprechend ändern, und zwar hin zu erhöhter Qualifikation. Andere Tätigkeiten, soweit sie standardisierte Abläufe beinhalten, werden komplett von Maschinen übernommen werden. davon werden zunehmend vor allem auch kognitive Berufsbilder (Sachbearbeiter, Controller,…) betroffen sein.

„Man schätzt dass mittel- bis langfristig die Digitalisierung zwischen 5 und 7 Millionen Arbeitsplätze allein in Deutschland kosten wird.

Doch auf der anderen Seite werden hier durch den demographischen Wandel bis zu 10 (ZEHN!) Millionen Arbeitsplätze vakant werden.“

Das daraus erwachsende (auch volkswirtschaftliche) Dilemma hinsichtlich Produktivitätserhalt ist erfolgskritisch für Unternehmen und kann nur technisch aufgefangen werden.[2]

In fast allen beruflichen Bereichen wird es zunehmend zur Erfordernis, mit Maschinen oder auch anderen Menschen über technische Schnittstellen zu kommunizieren. Kollaboration ist ein wesentliches Merkmal der Digitalisierung. Und diese vernetzte und hochgradig automatisierte Zusammenarbeit zwischen Mensch und Maschine oder zwischen unterschiedlichen Maschinen schafft neue Schnittstellen. Genau an diesen Stellen gibt es ein noch nicht zufriedenstellend gelöstes Problem:
Die Sicherheit des Informationsflusses, der über eine rasant anwachsende Zahl technischer Schnittstellen fließen wird und eine Digitalisierung erst ermöglichen wird.

Der hier häufig verwendete – und von vielen gehasste – Begriff lautet IT-Sicherheit. Dies beinhaltet die eingesetzte Software, aber auch, und das wird oft vergessen, die Hardware. Und diese beschränkt sich nicht auf die USB-Port-Policy des Unternehmens.

Was ist alles IT-Sicherheit?

Andere Begriffe, die die gleiche Problematik betreffen, sind unter anderen IT-Security, Cyber-Security, DV-Sicherheit oder Daten-Sicherheit. Gemeint ist, vereinfacht ausgedrückt, die Gesamtheit der eingesetzten Software und Hardware vor unberechtigten Zugriff auf schützenswerte Daten („Datenklau“), dem Verfälschen von Daten, der Industriespionage und politische Spionage bis hin zum Geheimnisverrat, zu schützen – Die möglichen Motive für diese Verbrechen sind ein Thema für sich, sollen aber irrelevant bleiben; hier soll die Thematik aus rein technischer Sicht betrachten werden.

Was sind die technischen Grundlagen fehlender IT-Sicherheit?

Anders gefragt: Warum haben Hacker mit ihren Angriffen immer wieder so viel Erfolg? Dazu muss man zunächst feststellen, dass es für die Hacker einen Anreiz, eine Möglichkeit oder eine Schwachstelle für ihr Vorhaben geben muss.[3]

Neben den oben schon genannten kriminellen Motiven kann es simpler Spieltrieb sein, oder das Ausprobieren eigener Fähigkeiten, aber vielleicht sogar ein terroristischer Anschlag.

Das Fazit also ist:

Niemand ist wirklich sicher vor Hacker-Angriffen!

Anweisungen für Hacking-Angriffe sind im Internet zu finden und zielen auf eine Unzulänglichkeit der aktuell verfügbaren Hardware-Architekturen – auch wenn das nicht ausdrücklich betont wird: Die fehlende effektive Trennung der für jegliche Datenverarbeitung benötigten Datenkategorien. Denn zu allen Hacker-Angriffen gehört mehr oder weniger Schad-Software, die in das angegriffene IT-System nicht nur eingebracht werden muss, sondern dort auch ausgeführt werden muss. Letzteres ist durch eine weitgehend standardisierte Hardwaretechnik vereinfacht worden. Die Standardisierung von Hardware und Software wird weiter voranschreiten, und die Bedienung von Systemen immer einheitlicher werden. Der Halbwertzeit von (IT-)Fachwissen wird abnehmen. Hinzu kommt, dass auch die effizienteren Produktionsverfahren (für Hardware wie für Software) sich durchsetzen werden, damit auch in diesem Bereich Lernverluste weitestgehend vermieden werden. Unterschiede werden hier jetzt schon reduziert, zum Beispiel dadurch, dass es „Shells“ gibt, innerhalb derer für Windows-Systeme erstellte Software auf Apple-Hardware und für Apple-Systeme erstellte Software unter Microsoft-Betriebssystemen ausgeführt werden können.

Was ist Schad-Software?

In diesem Zusammenhang ist sie der Sammelbegriff für jegliche Software, die ohne Einverständnis oder ohne Wissen des Nutzers oder unbeabsichtigt in ein IT-System eingebracht wird, egal ob über Netzwerke oder (infizierte) externe Speichermedien (z.B.: USB-Sticks).

Was heißt das für die Hardware-Architektur?

Praktisch allen heute gebräuchlichen IT-Systemen dient als Plattform eine Hardware-Architektur, die in den letzten achtzig Jahren(!!) keine wesentliche technische Änderung mehr erfahren hat. Sie ist der Grund dafür, dass Hacker erfolgreich ihre Angriffe auf IT-Infrastrukturen durchführen können: Jegliche Software – egal ob Teil eines Programmes oder Teil zu bearbeitender Daten – ist im selben Arbeitsspeicher beziehungsweise im selben Festspeicher abgelegt. Diese Tatsache wird von Hackern für das Unterschieben von Schad-Software (aus)genutzt!
Aber auch die regulär erworbene und gewollt eingesetzte Software nutzt diese „Schwäche“ der Hardware. Das ist eine Situation, die je nach Standpunkt als Gefahr oder Chance gesehen werden kann: Software-Maßnahmen gegen Hacker-Angriffe sind deshalb grundsätzlich manipulierbar oder können umgangen werden.

Hier zeigt sich ein blinder Fleck auf. Eine allgemeine Blindheit, die aus der Tatsache rührt, dass eine Technik zur gemeinverbindlichen Basis wurde und die somit nicht mehr hinterfragt wird!

Wie wirken sich Angriffe und Gegenmaßnahmen zeitlich aus?

Jede Maßnahme gegen einen Angriff, egal über welche Schnittstelle, erfordert eine zwingende Folge von Aktivitäten:

    1. Wiedererkennen von Eigenschaften der Schad-Software
    2. Entwickeln einer Gegenmaßnahme, eventuell einschließlich einer Modifikation der Abwehr auf Basis des Erfahrungsgewinns!
    3. Verteilen der Gegenmaßnahme
    4. Installieren der Gegenmaßnahme

Diese Schritte brauchen nicht nur jeder für sich mehr oder weniger Zeit, es liegen auch unbekannte Zeiträume zwischen diesen Schritten, die es den Angreifern erlauben von ihrem Erfahrungsgewinn zu profitieren. Es ist ein ständiger, dynamischer und iterativer Prozess, der nie aufhört. –
Oder genauer: der auf der Verteidigerseite nie aufhören darf! Denn jeder Angriff, der nicht aufgefallen ist, war in aller Regel erfolgreich. Und im Rahmen der Digitalisierung werden auch Angriffe denkbar, die durch Einsatz künstlicher Intelligenz in ihrer Wirkung gesteigert werden.

  • Wirkungsgesteigert über den Zuwachs zu verteidigender Schnittstellen.
  • Wirkungsgesteigert über automatisierte Datentransfers und Kollaboration von Systemen und Netzwerken
  • Wirkungsgesteigert durch den zu erwartenden Einsatz künstlicher Intelligenz auf Angreiferseite
  • Wirkungsgesteigert durch die Komplexität von Netzwerken
  • und letztlich auch wirkungsgesteigert durch die zunehmende technische Überforderung des durchschnittlichen Users als DEN Schwachpunkt schlechthin…
  • Wirkungsgesteigert durch das Fehlen von Nutzern, die Angriffe erkennen könnten. (Z.B. in embedded Systems)

 

Jeder dieser Schritte verbraucht auch Ressourcen, bei den Schritten 2 und 3 sind es die Ressourcen der Produzenten der „Verteidigungssoftware“, bei den Schritten 1 und 4 sind es die Ressourcen des Systembetreibers – und hier könnte es in zweierlei Hinsicht interessant werden: Weil umso mehr Ressourcen verbraucht werden je mehr Schad-Software abgewehrt wird, wird nicht nur die Nutzungsdauer der Geräte vermindert, es wird auch die Reaktions-geschwindigkeit des Gesamtsystems negativ beeinflusst!

„Systemisch-technische Unwissenheit, dilettantische Routine und Bequemlichkeit machen den DAU (Dümmsten anzunehmenden User) zum Super-DAU!“

Und hier ist auch das zunehmende Alter der Beschäftigten – hier sind auch, vielleicht auch nicht zuletzt, Vorgesetzte und Berater gemeint, die im gleichen innerbetrieblichen Hamsterrad laufen – im Unternehmen zu bedenken, die möglicherweise dem jeweiligen technischen Fortschritt hinterherhinken werden. Hier können nur technische Absicherungsmaßnahmen hinreichend helfen.

Wie könnte eine zeitgerechte Hardware-Architektur aussehen?

Es kann – für Hersteller von IT-Geräten – so einfach sein, eine Schad-Software-sichere Hardware zu bauen! Alle erforderlichen Komponenten gibt es bereits, und sind am Markt verfügbar! Sie müssen nur noch in geeigneter Weise miteinander verschaltet werden. Und diese „Anders-Verschaltung“ ist nicht nur für das jeweilige Gerät individuell, sie erlaubt auch IT-Lösungen, die bisher durch aufwändige Software realisiert wurden, in eleganten Hardware-Schaltungen zu realisieren; zum Beispiel den beiderseits geregelten Datenaustausch zwischen Netzwerken unterschiedlicher Zugangsberechtigungen, die auch als Rot-Schwarz-Trennung bekannt ist.

Und warum wird diese neue Hardware noch nicht gebaut?

Hier zieht das leidlich bekannte „Not-invented-here-Syndrom“ der Großindustrie. Zum anderen erfordert die neue Architektur der Hardware auch eine entsprechende Architektur – oder besser: Struktur – der Software.
Aber auch Schad-Software, die der „Neuen Software-Struktur“ entspricht kann auf Grund der Hardware-Architektur nicht ausgeführt werden. Und spätestens hier wird deutlich, dass ein Umdenken im Hardware-Bereich sinnvoll ist.

Eine erste inzwischen patentrechtlich geschützte Lösung wurde auf dem Wettbewerb „INNOVATIONSPREIS-IT 2015“ in der Kategorie „Hardware“ ausgezeichnet. Sie basiert auf der Idee, dass IT-Systeme verschiedene Kategorien von Daten benötigen, und diese getrennt voneinander in unabhängigen Speichern abgelegt werden. Die Datenkategorie, zu der Schad-Software, unbeabsichtigt geladene Dateien und dergleichen gehören, ist in einem Speicher abgelegt, der den für die Ausführung von Software erforderlichen Zugang zu den Prozessoren nicht hat. Somit ist eine Ausführung von dort gespeicherter Software technisch nicht möglich.[4]
Die übrigen Software-Kategorien unterliegen in vollem Umfang der Qualitäts- und Konfigurationskontrolle, zwei häufig bei den Betreibern stiefmütterlich behandelten Prozessen.

FAZIT – Nutzung sicherer Hardware als Chance gegen anwachsendes Risiko:

Hier wird deutlich, dass auch in der IT ein einseitiges Weiterentwickeln von Software als IT-Sicherheitsmaßnahme letztlich irgendwann an Grenzen stößt. Und im Rahmen der Digitalisierung und den rasant anwachsenden Schnittstellen in und zu Netzwerken (Kollaboration), den Möglichkeiten der künstlichen Intelligenz und der Unmenge an verschiedenen Software-Lösungen, mit denen der Mark geflutet wird, sind reine Software-Absicherungen der Systeme letztlich zunehmend risikobehaftet.[5]

Die zunehmende Überalterung der Belegschaften schafft zusätzliche Risiken. Einerseits nimmt die Aufnahmefähigkeit für neues Wissen im Alter tendenziell ab, und andererseits erhöht sich im Alter auch der Stressfaktor bei den Usern. Beides stellt ein nicht zu unterschätzendes Risikopotential dar – vor allem bei Routinearbeiten. Die IT-Systeme müssen also nicht nur gegen Angriffe von außen besser geschützt werden, sondern auch gegen Fehlbedienungen durch eigene Mitarbeiter – und zwar ohne die Produktivität darunter leiden zu lassen. Es erscheint – auch wirtschaftlich – folgerichtig, hier neben besseren Systemumgebungen auf Softwareseite auch die bisher vernachlässigte Hardware einzubeziehen. Beim nächsten fälligen Wechsel der Hardware-Ausstattung – der z.B. notwendig wird, weil die Anti-Viren-Software zu viel Ressourcen verschlingt – einmalig in eine sichere Hardware zu investieren. Das wird wahrscheinlich kostengünstiger sein, als weiterhin laufend Lizenzen für Anti-Viren-Software zu bezahlen, die nur einen immer fragwürdigeren Schutz bietet.

Ein wesentliches Vertrauensmoment in Wirtschaft und Gesellschaft – nicht erst – in der Zukunft ist die Datensicherheit und Datensouveränität bei weitgehend automatisierten Abläufen. Verträge, Angebote und Nachfragen werden nur noch digital kommuniziert werden. Die Sicherheit der dabei fließenden Daten werden von den beteiligten Parteien als wichtig wahrgenommen, weil sie persönliche Schutzrechte betreffen. Werden diese verletzt hat das für betroffene Unternehmen mit Sicherheit schwerwiegende Folgen. Schon heute wird das zunehmend im Markt bei kommunizierten(!) Vorfällen sichtbar.[6]

Und Versicherer bewerten zunehmend auch das Versicherungsrisiko für Cyberangriffe „konservativer“;
bis hin zur Unversicherbarkeit eines Risikos!

Momentan wird mit der Digitalisierung das neue Utopia versprochen. Letztlich ist es das, was mit dem Internet auch schon versprochen wurde: „Schneller, schöner, besser!“

Inzwischen kann die Wirtschaft von digital gestohlenen Patentideen und Konstruktionsplänen sowie Ausschreibungsinhalten berichten. Von Wirtschaftsspionage, ohne den klassischen Spion vor Ort, und gezielten Hackerangriffe auf Schlüsselkomponenten in den Systemen. Von Kriminellen, aber auch von staatlichen Nachrichtendiensten, die mitunter auch den klaren Auftrag zur Wirtschaftsspionage haben!

Somit erscheint eine stringentere Nutzung von sicherer Hardware als Chance gegen das anwachsende Risiko geboten. Ein Paradigmenwandel in der IT-Sicherheit steht bevor.

Die Future Work wird sich auch hier verändern und auswirken. Grundlegend.

Zum Artikelbeginn

Quellenverzeichnis:

[1] Vgl.: Sascha Rauschenberger: Joint Future Work – Ein strategisches Gesamtkonzept für Gesellschaft, Wirtschaft und Politik im demographischen Wandel (2015)

[2] Vgl.: Sascha Rauschenberger: Joint Future Work und Digitalisierung: Chance für den demographischen Wandel – Gedanken zur Umsetzung, Conplore Wirtschaftsmagazin (2015)

[3] Vgl.: Prof. Dr. Hartmut Pohl / Sascha Rauschenberger: Future Work und IT-Sicherheit: Verdrängte Risiken für die Arbeitswelt der Zukunft – Das Dilemma moderner Arbeitsorganisationen, Conplore Wirtschaftsmagazin (2015)

[4] Vgl.: Friedhelm Becker: Sichere Strukturen in Hardware und Software

[5] Vgl.: Prof. Dr. Hartmut Pohl / Sascha Rauschenberger: Future Work und mobile Arbeitsplattformen mit Apps: Risiken für die Wirtschaft, (2015)

[6] Vgl.: Sascha Rauschenberger: Joint Future Work und Fehlermöglichkeiten in der Digitalisierung:
Teil 4: Die Utopie der digitalen Souveränität
– Conplore Wirtschaftsmagazin (2016)

Bildquelle: Anastasia Malkhazova: „bitter fruits “ – Guache, Acryl, Pastell, Kohle auf prepariertem Papier, 210 x 160 cm, 2016 – www.anastasiamalkhazova.com

Buchcover - Future Work und Megatrends - von Sascha Rauschenberger

Start typing and press Enter to search