Teil von  SELFPHP
  +++ SELFPHP CronJob-Service :: Jetzt auch als Professional-Version verfügbar! +++


:: Anbieterverzeichnis ::

Globale Branchen

Informieren Sie sich über ausgewählte Unternehmen im Anbieterverzeichnis von SELFPHP  

 

:: SELFPHP Forum ::

Fragen rund um die Themen PHP? In über 130.000 Beiträgen finden Sie sicher die passende Antwort!  

 

:: Newsletter ::

Abonnieren Sie hier den kostenlosen SELFPHP Newsletter!

Vorname: 
Name:
E-Mail:
 
 

:: Qozido ::

Die Bilderverwaltung mit Logbuch für Taucher und Schnorchler.   

 
 
Analysen


Internet Security / Analysen

Nur der Mensch bleibt, wie er ist - IT-Sicherheit im Jahr 2030


13.12.2012
 
Magnus Kalkuhl
  

Vor 23 Jahren berichteten die Medien ausführlich über einen der größten Hacking-Fälle in der Geschichte der USA. Das in diesem Zusammenhang von Clifford Stoll veröffentlichte Buch „Kuckucksei“ gilt mittlerweile als Klassiker der IT-Literatur. Im gleichen Jahr erfand Tim Berners-Lee das „World Wide Web“, Intel präsentierte den brandneuen 486er-Prozessor mit 25 MHz – und die Berliner Mauer fiel. Doch die Zahl an Computernutzern war überschaubar, und so wurde 1989 im kollektiven Gedächtnis als Jahr des Mauerfalls gespeichert. Alles andere war schnell vergessen.

Mehr als zwei Jahrzehnte später sind Computer nicht nur gesellschaftsfähig geworden, sondern taugen nicht zuletzt dank Apple sogar schon zum Statussymbol. Wer sich heute die Zeit nimmt, für jede Recherche in die Bücherei zu gehen, seine Überweisungen am Bankschalter zu erledigen und mit Geschäftspartnern per Brief zu kommunizieren tut dies in der Regel als Privatperson, denn beruflich führt an Suchmaschinen, Onlinebanking und E-Mail kein Weg mehr vorbei.

Was für Auswirkungen aber hat diese Entwicklung langfristig auf unser Leben? Ein Ausblick auf die „IT-Sicherheit im Jahr 2030“ ist in einer von Informationstechnologie geprägten Welt zwangsläufig eine Prognose zum Thema „Sicherheit“ im Allgemeinen, denn „IT“ ist heute schon überall - und morgen erst recht.

Mit großen Schritten Richtung Zukunft

Rückblickend werden wir 2012 als das Jahr sehen, in dem die Vormachtstellung des klassischen „Personal Computers“ beendet wurde – ausgerechnet von dem Unternehmen, das einst untrennbar mit ihm verbunden war: Microsoft. Wie Apple und Google setzt nun auch der Windows-Gigant auf den Viele-Geräte-Ansatz: Handys, Tablet-Rechner und zunehmend auch Fernsehgeräte mit eingebautem Betriebssystem verdrängen den PC von seiner zentralen Position. Cloud-Speicher im Internet statt Festplatte im Desktoprechner, Programme aus dem AppStore anstelle von Downloads auf dubiosen Webseiten – die Zeiten ändern sich: Analoge Fotoapparate wurden von Digitalkameras verdrängt. Diese wiederum werden vielfach durch immer besser werdende Handykameras abgelöst. Sicher wird es auch in zehn Jahren noch Analogfilme, Digicams und PCs geben. Ebenso wie Schreibmaschinen. Die goldenen Zeiten aber sind vorbei. So ist es nur konsequent, dass wohl auch die Smartphones innerhalb der nächsten fünf Jahre ihren Status als Technikspielzeug Nr. 1 verlieren werden – die Augmented-Reality-Brillen kommen.

Hierbei handelt es sich um Sehhilfen der besonderen Art – mit eingebauter Kamera, Display und Computer. Die Besonderheit von „Augmented Reality“ – also der „erweiterten Realität“ – liegt darin, dass für den Träger Wirklichkeit und Computerbild miteinander verschmelzen. Ein miserables Personengedächtnis ist kein Problem, wenn dank fortlaufend aktivierter Kamera und Gesichtserkennung automatisch Name, Alter und Beruf neben unserem Gesprächspartner eingeblendet werden. Im Urlaub werden fremdsprachige Speisekartentexte einfach durch eine übersetzte Fassung ersetzt. Und wer die Orientierung verliert, lässt via Fußgänger-Navigationssystem die richtunggebenden Pfeile virtuell auf den Asphalt projizieren. Nebenher entsteht aus dem fortlaufenden Datenstrom von Kamera, Mikrophon und GPS ganz von allein ein multimediales Tagebuch. Lange müssen wir nicht mehr warten: 2013 wird Google seine bereits vorgestellten „Google Glasses“ an Entwickler ausliefern, andere Hersteller werden folgen. Die Verschmelzung von realer und virtueller Welt wird innerhalb der folgenden Jahre so vieles ändern, dass man dieser Entwicklung kaum genügend Bedeutung beimessen kann.

Doch jede Technik hat ihre Schattenseiten: Wenn Millionen Menschen mit stets aktivierten Kameras durch die Straßen laufen, ist abseits der eigenen Wohnung nichts mehr privat. Die Gesellschaft überwacht sich selbst, und es bleibt abzuwarten, ob und wie sich ein Gleichgewicht zwischen Technologie und Privatsphäre wahren lässt. Die automatische Deaktivierung von Kameras an bestimmten Orten wäre eine Möglichkeit, die von Apple bereits zum Patent angemeldet wurde.

Ein weiteres Problem: Auch der schärfste Verstand kann immer nur mit den Informationen arbeiten, die ihm zur Verfügung stehen. „Ich glaube nur, was ich mit eigenen Augen sehe“ lautet ein geflügeltes Wort. Empfängt unser Sehorgan dank Augmented Reality die Fehlinformation, dass das Restaurant, vor dem man gerade steht, ein Schabenproblem habe, wird man doch lieber in der Gaststätte gegenüber speisen. Das Problem mit manipulierten Bewertungen durch bezahlte „Kunden“ kennen wir bereits von Hotelbewertungen im Internet – und fallen trotzdem darauf herein. Und so dürfte vor allem die Werbeindustrie ein großes Interesse daran haben, unsere Realität ihren Vorstellungen gemäß zu „optimieren“. Wirklich gefährlich würde es, wenn das System im Ganzen gehackt und der Betroffene ohne es zu merken in einer Traumwelt leben würde, die mit der wirklichen Welt nichts mehr zu tun hätte.

Natürlich besteht die Zukunft nicht nur aus Augmented Reality. Doch selbst wenn wir spannende Zukunftsthemen wie Nanotechnologie, Genforschung oder Lebensmittel produzierende 3D-Drucker außen vor lassen, wird es so schnell nicht langweilig: Die vielbeschworene „Künstliche Intelligenz“ steht an der Schwelle von der Fiktion zur Wirklichkeit. 1997 bezwang IBMs „Deep Blue“ den Russen Garri Kasparow mit 3,5 zu 2,5 (im Vorjahr hatte der Schach-Großmeister noch die Oberhand gehabt) – hier ebnete weniger Intelligenz als vielmehr brachiale Rechenpower den Weg zum Sieg. 2011 aber verblüffte IBM mit „Watson“, der einen 74maligen Jeopardy-Gewinner im Quiz-Duell übertrumpfte – dank über die Jahre immer weiter perfektionierter Sprachverarbeitung und Algorithmen, die selbstständig neue Erkenntnisse aus vorhandenen Daten gewinnen. Im gleichen Jahr präsentierte Apple mit „Siri“ eine zwar nicht perfekte, aber doch richtungsweisende, digitale Assistentin. Erwartungsgemäß ist inzwischen auch Google in den Wettkampf um das klügste Computersystem eingestiegen. Parallel dazu laufen zahlreiche andere Projekte – teilweise mit EU-Milliarden gefördert - deren Ziel es ist, gleich ein komplettes Gehirn im Computer nachzubilden. Ob digitale Assistentin oder Kunsthirn – die Forscher haben zwar noch ein gutes Stück Arbeit vor sich, doch sie meinen es ernst, und die finanziellen Mittel stehen bereit.

Schließlich geht es um nicht weniger als um die vollständige Autonomisierung unserer Umgebung: Putzroboter, Häuser, Autos. Das „Google Car“ hat 2012 als erstes anerkanntes, autonomes Fahrzeug eine Zulassung für den US-Staat Nevada erhalten. Auch in der Roboterforschung gibt es Fortschritte: So stellte die US-Agentur DARPA jüngst den Geparden-Roboter „Cheetah“ vor, der mit 45 km/h schneller läuft als jeder Mensch. Doch erst wenn die Körper aus Stahl und Silikon von künstlicher Intelligenz beseelt sind, werden die Robotervisionen aus Science-Fiction Romanen Wirklichkeit. Ob man sich darauf freut oder eher erschauert, bleibt jedem selbst überlassen.


Alles wird anders

Auslaufmodelle

Zukunftslösung

Fernseher, PCs, Laptops, Tablets und SmartphonesAugmented Reality Brillen und überall verfügbare Displays – von der Armbanduhr bis hin zur Monitorwand
Software, Filme, Musik zum Kaufen Cloud-basierte Inhalte, nach Nutzungshäufigkeit abgerechnet
Spielkonsolen Virtuelle Spielwelten, die über beliebige Computersysteme betreten werden können.
Manuell gesteuerte Autos Vollautomatisierte Transportsysteme
Bargeld Digitale Bezahlsysteme
Schule Auf die individuellen Fähigkeiten von Schülern hin optimierter Einzelunterricht durch intelligente Systeme
ArbeiterRoboter

Die Welt im Jahr 2030

Wie sieht es also aus, unser Leben in der Zukunft? Die heute noch so angesagten Smartphones werden von Augmented-Reality-Geräten weitestgehend verdrängt worden sein. Beeindruckende Fortschritte in direkter Verbindung von Chip und Sehnerven ermöglichen auch eigentlich blinden Menschen den Zugang zur erweiterten Realität. Und im YouTube der Zukunft sind nun vor allem selbstgedrehte 3D-Filme gefragt – inklusive unbeschränktem Rundumblick und frei fokussierbaren Tiefen. Spielkonsolen im klassischen Sinn gibt es nicht mehr. Virtuelle Welten werden stattdessen auf großen Computersystemen berechnet, die in zahlreichen Städten verteilt sind – teilweise direkt in den Kellern großer Wohnhäuser, um die Übertragungswege kurz zu halten. Eine gute Zeit für kreative Köpfe, die interessante Spielwelten erschaffen und andere Spieler dazu einladen, sie für einen geringen Eintrittspreis zu besuchen.

All dies erfordert extrem leistungsfähige Computer. Es gilt die Faustregel: Je kleiner die Transistoren in einem Prozessor, umso mehr Geschwindigkeit lässt sich aus ihnen herausholen. Doch mit jedem Verkleinerungsschritt nähern sich Intel & Co den Grenzen des physikalisch machbaren. Allerdings haben die Prozessorhersteller in der Vergangenheit immer wieder ihre Kreativität unter Beweis gestellt, und auch die massive Steigerung der Rechenkernzahl pro Chip wäre eine Option. Zur Zeit wird davon ausgegangen, dass sich die Rechenleistung von Computern bei gleichem Preis rund alle 1 ? Jahre verdoppelt. Entsprechend wären Computer in 18 Jahren im Vergleich zu heutigen Maschinen rund viertausendmal so schnell. Damit stünde einem Privatanwender für kleines Geld mehr Prozessor-Leistung zur Verfügung, als der bereits erwähnte IBM-Supercomputer „Watson“ anno 2012 liefern kann (für Technikfreunde: 2880 Power7-Kerne mit je 3.55 GHz). Der erste „Toy Story“-Film könnte zu Hause in Echtzeit und Kinoauflösung berechnet werden, und die vor wenigen Monate noch als wissenschaftlicher Meilenstein gefeierte, erstmalig vollständige Simulation des Einzellers „Mycoplasma Genitalium“ würde allenfalls als eines von vielen Standardexperimenten im Schulunterricht taugen.

Auch die vielbeschworene Quantencomputer-Technik sollte 2030 den Kinderschuhen entstiegen sein. Nicht jedes klassische Computerproblem lässt sich nach derzeitigem Kenntnisstand mit einer Hand voll Quantenbits lösen, aber das Knacken starker RSA-Verschlüsselung (Einsatzgebiete sind unter anderem die Absicherung von E-Mails und Online-Zahlungsverkehr) könnte in zwei Jahrzehnten Realität geworden sein.

Als gesichert kann hingegen gelten, dass uns auch in den nächsten Jahren Rootkits, Trojaner und Phishingangriffe als Thema erhalten bleiben werden. Allerdings werden sich die Angreifer langfristig wohl eher auf Server als auf Endgeräte konzentrieren. Der Grund: Schwachstellen entstehen vor allem in komplexen Umgebungen, und es ist davon auszugehen, dass die Betriebssysteme von Tablets und Smartphones schon in den nächsten Jahren deutlich entschlackt und der Großteil der Logik in die Cloud – und damit auf die Serverseite - verlagert wird. Bei den Computerviren der Zukunft wird es natürlich nicht nur um finanzielle Interessen gehen: Spätestens seit Entdeckung des Sabotageschädlings „Stuxnet“ im Jahr 2010 ist klar, dass Schadsoftware auch einen politischen Hintergrund haben kann. Durch die fortschreitende Militarisierung des Cyberspace werden ganze Heerscharen professioneller Virenschreiber entstehen - denn das Schreiben von Trojanern und die Durchführung von Online-Attacken erfolgt nun mit staatlicher Legitimation und Förderung.

Singularität

So schnell dieser Trend begonnen hat könnte er aber auch schon wieder zu Ende gehen – wenn nicht Menschen an neuen Schädlingen arbeiten, sondern stattdessen Maschinen gegen Maschinen kämpfen. Die Fortschritte im bereits angesprochenen Bereich „Künstliche Intelligenz“ werden hier entscheidend sein. „Singularität“ heißt das Zauberwort: So bezeichnet man in der Zukunftsforschung den Zeitpunkt, an dem Computer intelligent genug sind, um sich ohne weitere Hilfe des Menschen selbstständig weiterzuentwickeln. Das klingt unglaublich, und entsprechend heiß umstritten ist unter Forschern, ob und wann wir diesen Punkt erreichen werden. Es wäre langweilig, würde ich mich an dieser Stelle vor einer persönlichen Einschätzung drücken, und so werfe ich als Prognose 10-15 Jahre in den Raum.

Nun fällt es uns schon heute schwer, mit der rasanten Geschwindigkeit neuer Entwicklungen Schritt zu halten. Mit Erreichen der Singularität aber zieht das Tempo noch einmal deutlich an: Als hätte ein Urmensch beim Frühstück gerade das Feuer entdeckt, wäre zum Mittagessen plötzlich im Mittelalter, nachmittags Zeuge der industriellen Revolution und abends schließlich im Computerzeitalter angekommen.

Unser Verstand und unsere Sinne, durch die behutsame Hand der Evolution über Millionen von Jahren gereift, werden so in einem Augenzwinkern der Geschichte schlagartig mit Technologien konfrontiert, die unserer biologischen Entwicklung um Generationen voraus sind.

Nun sind technische Hilfsmittel an sich nichts Schlechtes. Schon unsere Vorfahren haben sich mit der Erfindung des geschriebenen Wortes einen Vorteil gegenüber nicht-lesenden Personen verschafft. In den letzten Jahren haben vor allem Suchmaschinen und Dienste wie Wikipedia einen Schub in der Informationsverarbeitung bewirkt. Doch noch immer gilt: Der Mensch sagt, wo es lang geht, der Computer setzt es um. Lassen wir jedoch zu, dass unser Leben durch digitale Assistenzsysteme komplett durchoptimiert wird, kehrt sich das Machtverhältnis um. Jeder Versuch, die Kontrolle wieder dem eigenen Verstand zu übergeben, wird unweigerlich zu Leistungsabfällen führen.

Ab einem gewissen Punkt könnten uns intelligente Systeme schließlich so überlegen sein, dass wir die hinter Ratschlägen stehenden Mechanismen und Gründe schlicht nicht mehr erfassen können. Wir wären wie Kleinkinder, die ihrer Mutter blind vertrauen – weil sie gar keine andere Wahl haben. Der Knackpunkt: Ein Kind wächst, und ist als Erwachsener schließlich in der Lage, auf eigenen Beinen zu stehen. Wir hingegen wären bis zum Ende unserer Tage auf die Hilfe des Computers angewiesen.

Auch wenn wir noch einige ruhige Jahre vor uns haben, sollten wir uns bereits jetzt Gedanken darüber machen, wie wir mit diesen Entwicklungen umgehen werden. Wie sollte ein Forscher überhaupt reagieren, wenn er den Durchbruch in künstlicher Intelligenz erreicht hat? Letztlich kann ein hochintelligentes System auch als Waffe missbraucht werden. Die Entwicklung von Nuklearsprengkörpern ist dem Durchschnittsbürger durch international geltende Staatsverträge untersagt – das Zusammenschrauben von nahezu allmächtigen Intelligenzen am heimischen Schreibtisch hingegen ist rechtlich kein Problem und wäre wohl auch nicht zu regulieren. Bleibt zu hoffen, dass der glückliche Erfinder der ersten wirklichen, künstlichen Intelligenz nicht umgehend beschließt, die Weltherrschaft an sich zu reißen.

Eine weitere Herausforderung ist der Umgang mit der Wahrheit: Von Computern erwarten wir absolute Sachlichkeit. Wenn einem Staatschef gerade nach allen Regeln der Logik dargelegt wurde, dass er gegenüber seinem Volk im Unrecht sei und daher doch freundlicherweise abtreten möge – würde er das akzeptieren? Oder werden wir die Computer zwingen, wider besseren Wissens unsere „Wahrheiten“ zu übernehmen. In so einer Welt bräuchte es keine Antivirensoftware, sondern Psychologen, da die erzwungene Verarbeitung widersprüchlicher Daten unweigerlich zur digitalen Psychose führen muss – „Odyssee 2001“ lässt grüßen.

Der gesunde Menschenverstand

Die Zukunft hält aufregende Möglichkeiten für uns bereit, birgt aber auch immense Risiken. Eine große Rolle spielen hier unsere eigenen Schwächen. In den fünfziger Jahren experimentierten die Wissenschaftler Peter Milner und James Olds mit Ratten, denen Elektroden im „Vergnügungszentrum“ ihrer Gehirne eingepflanzt worden waren – gibt man solchen Tieren die Möglichkeit, sich per Knopfdruck selbst zu stimulieren, tun sie nichts anderes mehr und sterben schließlich vor Erschöpfung. Auf einem Computer-kontrollierten Planeten gäbe es weder Stechuhren noch Arbeitsämter. Jeder könnte seinen Träumen und Talenten freien Lauf lassen. Je nachdem, wie es um unsere Selbstdisziplin bestellt ist, entstünde so eine blühende Welt voller Künstler, Sportler und Schriftsteller – oder aber einem traurigem Häuflein lethargischer Faulpelze.

Wenn ich in Interviews gefragt werde, wie man sich am besten vor Bedrohungen im Internet schützt, ist es unvermeidbar, neben technischen Lösungen auch auf die Bedeutung des „gesunden Menschenverstandes“ hinzuweisen. Sollte der mal wieder Pause machen, können wir nur hoffen, dass wenigstens die Computer einen kühlen Kopf behalten.


Die größten Chancen und Risiken unserer digitalen Zukunft:

Technologie

Utopie

Dystopie

Singularität Leben wie im Paradies – jeder macht, was es mag – für den Rest sind die Maschinen da. Der letzte Weltkrieg könnte von einem Laptop gewonnen werden, der „nur Befehle befolgt hat“- oder die ganze Menschheit als Sicherheitsrisiko einstufte.
Intelligente Infrastrukturen Verkehrsabläufe, Logistik – alles ist optimal aufeinander abgestimmt. So werden Ressourcen und damit auch die Umwelt geschont. Im Fall eines mutwilligen Angriffs werden Städte von der Lebensmittelversorgung abgeschnitten, Bürger von Ihren Häusern als Geisel gehalten, Gefängnistüren geöffnet.
Digitale Lebensberater Persönliche Rundum-Beratung: Nie mehr Termine vergessen oder Zeit mit Papierkram vergeuden. Völlige Technologieabhängigkeit und damit verbunden das Risiko, aufgrund manipulierter Daten ein fremdbestimmtes Leben zu führen.
Medizinische Roboter Günstigere Operationen, geringeres Risiko von Kunstfehlern und Fehldiagnosen, keine Wartezeiten beim Arzt. Verlust von Fachwissen, da eine medizinische Ausbildung finanziell weniger attraktiv geworden ist. Todesfälle durch gehackte Systeme.
Militärroboter Die Vorteile liegen klar auf der Hand – für denjenigen, der die stärkeren Roboter hat.Wer im Kriegsfall keine menschlichen Verluste auf eigener Seite befürchtet, hat vor Angriffskriegen weniger Hemmungen.
Augmented Reality Wir erweitern unsere Wahrnehmung, und gewinnen durch fortlaufendes Lifelogging neue Erkenntnisse über uns selbst.Völliger Verlust von Privatsphäre und auf Dauer Abhängigkeit von den computerisierten Prothesen.
Bargeldloses Bezahlen Einkaufen wird komfortabler. Steuerhinterziehung ist unmöglich, womit letztlich die Steuerlast gerechter verteilt wird.Ganz ohne Bargeld gäbe es im Fall eines Computerausfalls keine normierten Tauschmittel mehr.
Quantencomputer Ermöglichen gerade in der Wissenschaft unglaubliche Perspektiven, z.B. in der Simulation chemischer Elemente. Manche Verschlüsselungstechnologie wie z.B. RSA könnten durch Quantencomputing ernsthaft bedroht sein.

Dieser Artikel erschien am 10. Dezember 2012 im Buch „VISION 2030” (GABAL Verlag)

Copyright © 1996 - 2013
Kaspersky Lab
Industry-leading Antivirus Software
All rights reserved
 

 
 




:: Premium-Partner ::

Webhosting/Serverlösungen


Premium-Partner LeaseWeb Germany GmbH
Premium-Partner MECO Systemhaus GmbH & Co. KG
Premium-Partner PSW GROUP GmbH & Co. KG
Premium-Partner BPI-Systeme
Premium-Partner Pixel X
Premium-Partner
 

:: SELFPHP Sponsoren ::


Sedo - Bei uns wird PHP großgeschrieben
hostfactory.ch - OptimaNet Schweiz AG
ZEND - The PHP Company
Kaspersky Labs
HighText iBusiness
SELFPHP Sponsoren
 

Qozido


© 2001-2013 E-Mail SELFPHP OHG, info@selfphp.deImpressumKontakt