Europäische Kommission will Internet Governance reformieren

Als Folge der umfassenden Überwachung durch die NSA im Internet und dem damit einhergehenden Vertrauensverlust in das Internet schlägt die Europäische Kommission am 12. Februar 2014 eine grundlegende Reform vor, wie das Internet hinkünftig verwaltet und betrieben werden soll („Internet Governance“).

Nellie Kroes, die Vizepräsidentin der Europäischen Kommision, erklärt dazu: „The next two years will be critical in redrawing the global map of Internet governance. Europe must contribute to a credible way forward for global internet governance. Europe must play a strong role in defining what the net of the future looks like.”

Die Kommission verpflichtet sich ausserdem zu einem Internet, dass unsere Grundfreiheiten und Menschenrechte im Internet schützt.

Die Kommission schlägt u.a. folgendes vor:

  • Zeitplan zur Globalisierung der Vergabe von Domain-Namen und IP-Adressen (bisher bei ICANN in USA beheimatet).
  • Einrichtung einer „Global Internet Policy Observatory“ („GIPO“, eine Art internationale Beobachtungsstelle), die für mehr Transparenz in der Internetpolitik sorgen soll.
  • Widersprüchliche nationale Rechtsvorschriften sollen hinkünftig überprüft und einer Lösung zugeführt werden.

Mehr Informationen zu diesem Thema finden Sie hier.

Veröffentlicht unter News | Verschlagwortet mit , , , , , | Hinterlasse einen Kommentar

Geld für Embedded Online-Videos bezahlen?

Anlässlich einer öffentlichen EU-Konsultation zum Urheberrecht fordert neben der österreichischen AKM (Gesellschaft der Autoren, Komponisten und Musikverleger) nun auch die deutsche GEMA, dass das Einbinden von Online-Videos in Websites unter Nutzung von Hyperlinks vergütungspflichtig werden soll. In einer Frage des Konsultationsdokuments heisst es: „Sollte das Bereitstellen eines Hyperlinks, welcher zu einem urheberrechtlich geschützten Werk oder anderen Inhalt führt, entweder im Allgemeinen oder unter bestimmten Umständen die Erlaubnis des Rechteinhabers erfordern?

Online-Videos werden heutzutage zigfach auf Websites, Blogs und Social Networks eingebunden. Wie Leonard Dobusch von netzpolitik.org berichtet, ist zu erwarten, dass es zu einem Rückgang der Nutzung der Embedding-Funktion kommen dürfte, falls das Einbetten von Videos wirklich lizenzpflichtig werden sollte. Ob das im Interesse jener Rechteinhaber sei, die ihre Videos auf YouTube monetarisierten, sei wohl eine andere Frage.

Der aktuelle Fall erinnert stark an die seit Jahren geführten Diskussionen zum Thema „Festplattenabgabe“; siehe auch Blogeintrag (“Festplattenabgabe – viel Lärm um nichts?”)

Veröffentlicht unter News | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar

Die nächste Generation von Big Data: BIG DATA 2.0

In den letzten Jahren hat sich im Bereich Big Data sehr viel getan. Big Data-Technologien ermöglichen zielgerichtete und strukturierte Analysen. Die dabei gewonnenen Erkenntnisse können bereits heute manuell oder automatisiert in Aktionen umgesetzt werden.

Big Data 2.0 fokussiert sich auf die drei Kernthemen Geschwindigkeit, Datenqualität und Branchenlösungen.

Geschwindigkeit:

Die exponentiell steigende Menge an Daten und deren Analyse gewinnen massiv an Bedeutung. Nachdem herkömmliche Datenbanken an deren Grenzen stossen, kommen mehr und mehr sogenannter In-Memory-Lösungen auf den Markt, die Daten in Echtzeit („real-time“) verarbeiten.

Datenqualität:

In dem gleichen Tempo wie das Datenwachstum zunimmt, gewinnt die Datenqualität an Bedeutung. Auf Basis der zur Verfügung stehenden Daten und unter Nutzung von Big Data-Technologien werden bereits heute ohne Zutun des Menschen Entscheidungen  getroffen (z.B. automatisierter Handel, wo innerhalb von Millisekunden Geschäfte platziert werden). „Bad Data“ kann in diesem Fall zu falschen Entscheidungen führen und negative finanzielle Auswirkungen nach sich ziehen. Datenqualität wird in Zukunft integraler Bestandteil von Service Level Agreements digitaler Unternehmen sein.

Branchenlösungen:

Es zeichnet sich ein Trend ab, dass vermehrt Big Data-Branchenlösungen auf den Markt kommen werden, die Unternehmen helfen die für ihre Branche relevanten Daten aus allen verfügbaren Quellen auszulesen, zu analysieren und darauf basierend Entscheidungen zu treffen.

Mehr Informationen zu diesem Thema liefern VentureBeat und Bloomberg TV.

Veröffentlicht unter Big Data, News | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

2014 läutet die Ära der dritten Plattform ein

Marktforscher IDC, der bereits die Begriffe der ersten Plattform (klassische Mainframes und Terminalserver) und zweiten Plattform (Client-Server-Modell) prägte, erwartet 2014 das Aufkommen der dritten Plattform.

Die dritte Plattform stellt die neueste Generation von IT-Dienstleistungen dar und basiert auf folgenden Technologiepfeilern:

  • Mobile Computing
  • Cloud Services
  • Big Data und Analytics
  • Social Networking

Das Jahr 2014 wird durch die Integration von Mobile Computing, Cloud Services, Big Data und Analytics sowie Social Networking die meisten Branchen nachhaltig prägen:

  • Die dritte Plattform wird auch ausserhalb der IT-Branche eine zentrale Rolle spielen und fast alle Branchen aufmischen. Die Big Player werden grosse Investitionen tätigen, um ihre Ressourcen im Bereich Cloud, Mobile und Big Data auszubauen.
  • Die Wertschöpfung wird sich „up to the stack“ verlagern, d.h. die Wertschöpfung „wandert“ von IaaS zu PaaS. Namhafte Cloud-Provider wie z.B. Amazon Web Services (AWS) könnten hochwertige PaaS-Angeboten auf den Markt bringen und IT-Anbieter der zweiten Plattform-Ära so zwingen, sich neu aufzustellen und deren Position auf dem Markt der dritten Plattform zu verteidigen.
  • Die dritte Plattform wird sich ausserdem über Smartphones, Tablets und PCs hinaus auf das Internet der Dinge ausdehnen.

Mehr Informationen zu der 10 Punkte umfassenden Prognose lesen Sie hier.

Veröffentlicht unter Big Data, Cloud, Internet of Things, News, Studie | Verschlagwortet mit , , , , , , , | Hinterlasse einen Kommentar

Big Data und Smart Cities

In Karlsruhe haben Forschungsinstitute und Unternehmen mit Unterstützung der Bundesregierung ein „Smart Data Innovation Lab“ (SDIL) gestartet, ein Innovationszentrum für intelligente Daten. Das SDIL richtet sich an Unternehmen und Forschungseinrichtungen, die in den vier strategischen Bereichen Industrie 4.0, Energie, Medizin und Smart Cities in sogenannten „Data Innovation-Communities“ gemeinsam forschen wollen.

Die Forschungsarbeit der Data Innovation-Community „Smart Cities“ befasst sich mit Stadtentwicklung und Verkehrsmanagement, da sich auch in diesem Bereich durch die Auswertung von Big Data völlig neue Möglichkeiten ergeben. U-Bahnen, Busse, Taxis und Verkehrskameras produzieren eine immense Datenmenge. Wenn es technische Möglichkeiten gäbe, diese Daten in Echtzeit zu analysieren, richtig auszuwerten und mit historischen Daten zu korrelieren, würden beispielsweise Staus und Gefahren im Strassenverkehr rechtzeitig erkannt und präventive Massnahmen gesetzt, um Verkehrsaufkommen und Fahrzeiten zu minimieren. Verkehrssteuerung ist aber nur ein wichtiger datengetriebener Aspekt des urbanen Lebens, der erforscht werden muss, um in der Städteplanung berücksicht zu werden. Weitere Aspekte sind z.B. Abfallentsorgung oder Katastrophenschutz.

Mehr Informationen zu diesem Thema liefern Smart Data Innovation Lab und Futurezone.

Veröffentlicht unter Big Data, Industrie 4.0, News, Smart City | Verschlagwortet mit , | Hinterlasse einen Kommentar

IT-Markt zerfällt in Legacy-IT und innovative IT

Laut einer aktuellen Prognose von Pierre Audoin Consulting (PAC) zeichnet sich eine Spaltung des IT-Marktes in zwei grosse Segmente mit gegensätzlicher Dynamik ab: Einerseits die Legacy-IT, andererseits die innovative IT. Das bedeutet, dass Unternehmen immer weniger in bestehende IT ausgeben und das gesparte Geld lieber in Innovationen investieren. Transformation wird hier eine Schlüsselrolle spielen, wobei Cloud Computing das Kernstück bildet.

Die PAC-Prognose stärkt Studienergebnisse diverser Marktforscher aus der Vergangenheit, dass es in wenigen Jahren keine klassischen, in sich geschlossenen IT-Abteilungen mehr geben werde. Die IT-Abteilung wird stattdessen in eine technische und eine strategisch orientierte Einheit aufgeteilt werden. Der CIO wird Teil der Geschäftsführung, IT-Anwendungsfachleute befinden sich in den Fachabteilungen und die IT-Infrastruktur ist grossteils in die Cloud ausgelagert.

Mehr Informationen zu diesem Thema liefern Österreichische Computer Gesellschaft und Pierre Audoin Consulting.

Veröffentlicht unter News, Studie | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar

Big Data kein Thema für österreichische CIOs?

Laut den Ergebnissen einer aktuellen COMPUTERWELT-Umfrage unter 254 österreichischen CIOs setzen bereits mehr als die Hälfte der Unternehmen Cloud-Services ein, Big Data dagegen ist nur ein Randthema.

Fast 80% der IT-Entscheider haben überhaupt keine klaren Pläne zum Thema Big Data. Als einer der Gründe geben 54% der Befragten an, dass sie sich über das Thema noch keine Gedanken gemacht hätten, 35,2% meinen, dass Big Data dem Unternehmen nichts bringe und 4,2% geben den Preis als Grund für fehlende Big Data Initiativen an.

Im Gegensatz zu Big Data sind die Trend-Themen Social Media, Cloud Computing und Bring your Own Device (ByoD) wesentlich öfter Teil der Strategie-Pläne der befragten CIOs.

Diese Studie ist überraschend, da es durchaus Betriebe gibt, die sich mit dem Thema Big Data auseinandersetzen müssen, da einerseits deren Datenaufkommen rasant zunimmt, andererseits die Geschäftsanforderungen Big Data zwingend erforderlich machen. Als Beispiel sei der Gesundheitsbereich genannt. Die gigantische Fülle an digitalisierten Patienteninformationen (in der Krebsforschung spricht man von einem Datenaufkommen von bis zu 20 Terabyte pro Patient; siehe auch Blogeintrag (“Big Data – Chancen und Risken”) muss für Ärzte so aufbereitet werden, dass sie rasch und zum Wohle des Patienten die richtige Entscheidung treffen können.

Mehr Informationen zu diesem Thema lesen Sie hier.

Veröffentlicht unter Big Data, News, Studie | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Web 3.0 und das Internet of Things

Welche Faktoren tragen massgeblich zur Entwicklung des Web 3.0 bei?

  • Cloud: Die Möglichkeit, riesige Datenmengen nicht mehr lokal auf dem PC oder Server zu speichern, sondern „irgendwo im Internet“.
  • Big Data: Man ist heute in der Lage, riesige Datenmengen zu verarbeiten, mit ein paar Mausklicks auszuwerten und zu analysieren.
  • IPv6: Die rasante Zunahme an Smartphones und Tablets trug massgeblich dazu bei, dass irgendwann die weltweit verfügbaren IP-Adressen schlichtweg zu knapp wurden.

Mit Web 3.0 geht das Internet einen grossen Schritt vorwärts. Das Internet wird das „Internet der Dinge“; es wird „intelligent“ und beginnt uns zu verstehen.

Mit dem „Internet der Dinge“ nutzt nicht mehr ausschliesslich der Mensch das Internet, sondern auch durch Arbeitsspeicher, Sensoren und programmierbarer Bauteile „smart“ gemachte Geräte werden mit dem Internet verbunden und nutzen dieses teilweise vollautomatisch. Das Internet der Dinge entwickelt sozusagen ein Eigenleben. Fitness-Helfer, vernetzte Haushalte, smarte Autos und andere Geräte werden über das Internet miteinander verknüpft, kommunizieren untereinander und können – falls gewünscht – vollautomatisiert Aktionen auslösen und sollen so dem Anwender Entscheidungen abnehmen und das tägliche Leben erleichtern.

Gleichzeitig werden die Anforderungen an die Suche im Internet immer komplexer. Da viele Begriffe mehrdeutig sind und in unterschiedlichem Kontext gebraucht werden, ist das Suchergebnis oft nicht treffend und der Anwender verbringt kostbare Zeit mit Nachrecherchieren. Wäre statt der derzeitigen stichwortartigen Suche im Web, eine semantische nicht wünschenswert? Eine semantische Suche, bei der der Suchbegriff inhaltlich mit anderen Informationen in Korrelation zueinander gesetzt wird? Durch Webseiten, die Informationen als Metatexte zur Verfügung stellen, führt eine semantische Suche wie z.B. „Wer erfand die Glühbirne“ sofort zum gewünschten Ergebnis; das Nachrecherchieren entfällt. Mit Web 3.0 ist dies teilweise schon möglich.

Veröffentlicht unter Big Data, Internet of Things, Web 3.0 | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar

Big Data – Ein Thema für den Mittelstand?

Der Big Data-Trend wird sich ungebremst fortsetzen. Wenn man bedenkt, dass der Grossteil aller verfügbaren Daten noch immer unanalysiert brachliegt, ist das enorme Potential dieser Daten nicht zu verleugnen. Eine sorgfältige Auswertung und sinnvolle Verknüpfung von Daten schafft ungeahnte Möglichkeiten und kann die Basis für neue Technologien und Dienstleistungen bilden. Unternehmen erschliessen neue Umsatzquellen und Marktsegmente und schaffen so neue Jobs.

Die ursprüngliche Definition von Big Data suggeriert, dass Big Data-Strategien nur dann umgesetzt werden können, wenn Unmengen von Daten im Unternehmen vorliegen. Glücklicherweise ist diese Definition unrichtig, denn würde sie stimmen, könnten KMUs Big Data komplett vergessen. Bei Big Data geht es nämlich nicht unbedingt nur um riesige Datenmengen, sondern um die im Verhältnis sehr grosse Menge an unstrukturierten Daten im Unternehmen. Der Analysebedarf unstrukturierter Daten besteht in Konzernen genauso wie im Mittelstand, nur nehmen sich erstere derzeit noch stärker dem Thema Big Data an.

Woran hakt es, dass kleine und mittelständische Unternehmen die Potentiale von Big Data nicht stärker ausschöpfen?

Bei KMUs scheitert ein stärkeres Engagement sicherlich oft am Faktor Zeit. Weitere Hürden sind Datenschutz (Wer ist dafür verantwortlich, dass Daten nicht missbräuchlich verwendet werden?) und fehlendes Budget. Um diese Hürden zu überwinden, bedarf es einer positiven Grundhaltung des Unternehmers zu Big Data und des Verständnisses für die enormen (wertschöpfenden) Vorteile der Verarbeitung und Analyse des stetig zunehmenden Datenstroms. Big Data muss Chefsache sein! In KMUs ebenso wie in Konzernen. Erst wenn diese wichtige Entscheidung getroffen wurde, kann man damit beginnen, Geschäftsmodelle und wertschöpfende Vorteile von Big Data im eigenen Unternehmen zu identifizieren und möglichen Risiken und erforderlichen Budgets gegenüberzustellen.

Veröffentlicht unter Big Data | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar

Cloud Computing für Manager

Harvard Business Manager berichtete kürzlich von einer von IBM im Jahr 2010 weltweit durchgeführten Umfrage unter 1500 CEOs, die besorgniserregende Missstände aufdeckt:

Laut dieser Studie rechnen 80 Prozent der Teilnehmer in Ihrem Umfeld mit einer deutlichen Zunahme der Komplexität, aber nur weniger als 50 Prozent der Unternehmen seien darauf vorbereitet. Die Studienautoren bezeichnet dies als die größte Herausforderung für Führungskräfte in den vergangenen acht Jahren.

Die eigene IT in Unternehmen macht die Situation oft nicht einfacher, ganz im Gegenteil. Es ist schwieriger, Veränderungen zu erkennen und entsprechend darauf zu reagieren. Cloud Computing kann hier helfen!

Mehr Informationen zu diesem Thema und warum die Steuerung des Übergangs in die Cloud Ära Chefsache ist, lesen Sie hier.

Veröffentlicht unter Cloud, News, Studie | Verschlagwortet mit , , , | Hinterlasse einen Kommentar