Cloud-Services und die Renaissance der Grossrechner

Es war nur eine Frage der Zeit, dass Mainframes auch bei Cloud-Services eine Rolle spielen. Viele Jahre hiess es, der Mainframe sei tot. Das Gegenteil ist der Fall. Immer wenn Unternehmen strikte Anforderungen hinsichtlich Performance, Hochverfügbarkeit, Zuverlässigkeit, hohen Datendurchsatzes und einfacher Administration im Geschäftsalltag hatten, wurde der Grossrechner ins Spiel gebracht.

Mainframes kommen daher vor allem bei Banken, Versicherungen, öffentlichen Verwaltungen und generell grossen Unternehmen zum Einsatz, um beispielsweise Serverfarmen auf einen Grossrechner zu konsolidieren und dort als virtuelle Server auf einem einheitlichen Betriebssystem zu betreiben. Damit lässt sich viel Strom und Rechenzentrumsstellfläche sparen.

Die zuvor beschriebenen strikten Anforderungen gelten speziell auch für Cloud-Computing. IBM trägt diesen Anforderungen Rechnung und stellt Angebote für den Mainframe vor, darunter das erste System z-basierte Enterprise Cloud System.

Mehr Informationen zu diesem Thema finden Sie hier.

 

Veröffentlicht unter Cloud, News | Verschlagwortet mit , | Hinterlasse einen Kommentar

Festplattenabgabe ist hinfällig! Keine Abgabe auf Raubkopien!

Der Europäische Gerichtshof (EuGH) fällte diese Woche ein richtungsweisendes Urteil. Auf digitale „Raubkopien“ von Filmen oder Musik darf keine Festplattenabgabe eingehoben werden.

Der EuGH schreibt in seinem Urteil, dass für die Berechnung der Festplattenabgabe keine Raubkopien miteinbezogen werden dürfen. Die Höhe der Festplattenabgabe dürfe sich nur an legalen Privatkopien orientieren (Anm.: Der Schaden, der Rechteinhabern dadurch entsteht, ist vernachlässigbar gering). „Redliche“ Nutzer dürfen durch den durch illegale Kopien entstandenen Schaden nicht zwangsweise aufkommen, heisst es in der Urteilsbegründung.

Mehr dazu lesen Sie auf DiePresse.Com.

Veröffentlicht unter News | Verschlagwortet mit | Hinterlasse einen Kommentar

Preiskampf der Cloud-Giganten – Google will es wissen!

Gastbeitrag von Mag. Alexander Weinbacher:
View Bernhard Kainrath's profile on LinkedIn

Am Google-Cloud-Platform-Event in San Francisco wurde vor wenigen Tagen das neue Preisgefüge für einige Google-Cloud-Services veröffentlicht:

  • On-demand Computing -32% (!),
  • Cloud Storage -68% (!!),
  • Big Data Query Engine -85% (!!!) Preisreduktion!

Google Cloud Storage kostet monatlich nur mehr $0.026 pro GB! Selbst der bisherige Platzhirsch Amazon AWS verlangt dafür $0.037, also immerhin noch um 42% mehr. Microsoft Azure startet mit einer monatlichen Gebühr von $68 pro TB. Bei dem bei Privatanwendern zunehmend beliebten Google Drive sind die ersten 15 GB gratis, für $100 pro Monat kann man nun 10TB (!!!) nutzen! Zum Vergleich: Dropbox verlangt monatlich $9,99 für 100GB, SugarSync $55 für 1TB, Apple $8,33 für 50GB.

Wenn man die Preisstaffeln fair miteinander vergleicht, ist im Bereich 50-100GB Apple rund achtmal, Dropbox rund fünfmal so teuer wie Google Drive! Als Begründung gibt Google an, die Cloudpreise wären zuletzt nur um -6% p.a. gefallen, die zugrunde liegenden Hardware-Preise jedoch um -20% p.a. und dies sei unfair. Das Preisgefüge der virtuellen Infrastruktur solle jenem der physischen folgen. Mit diesem Schritt würde dies nun korrigiert, so die offizielle Aussage.

Man kann es aber auch anders betrachten: Amazon ist im Datacenter-Segment schon über einen längeren Zeitraum deutlich preisgünstiger und hat dort massive Geschäft akquiriert. Google hat schlichtweg zu spät auf diese Bedrohung reagiert und holt dieses Versäumnis nun mit einem Paukenschlag nach – marketingstrategisch clever verpackt in „Feel-Good-Kommunikation“.

Dem Kunden soll´s Recht sein! Faktum ist, dass Google damit einsamer Preisführer in den umsatzstärksten Sparten des Cloudgeschäfts ist. Es wird spannend, wie die Konkurrenz in Form von AWS, Rackspace, Microsoft Azure, Joyent, Evernote, Tier3, Dropbox, Apple iCloud etc. darauf reagieren wird. Noch spannender wird, ob deren Kostenstruktur es überhaupt erlaubt, dieser Margenvernichtung zu folgen. Cloud Computing ist das derzeit wohl eindrucksvollste Beispiel dafür, welche Macht in der Fixkostendegression steckt und nur jene Anbieter, welche eine hohe Auslastung in einer kosteneffizienten Infrastruktur aufweisen, werden in diesem Markt überleben können.

Dass Cloudservices zu Kosteneinsparungen führen können, ist hinlänglich bekannt. Das Betrachten der absoluten Dimensionen und vor allem der Vergleich mit der hauseigenen Kostenstruktur wird zur Folge haben, dass zahlreiche Datenbestände welche keine raschen Zugriffszeit benötigen in die Cloud verlagert werden. Hierbei sei daran erinnert, dass es dennoch die Aufgabe des Dateneigentümers ist, die verlagerten Daten entsprechend vor unbefugtem Zugriff zu schützen! Geeignete Zugriffskontrollen und Verschlüsselungsmassnahmen, welche den Komfort für den User nicht beeinträchtigen, sind hier verpflichtend einzusetzen!

Veröffentlicht unter Cloud, News | Verschlagwortet mit , , , , , , , | Hinterlasse einen Kommentar

Grüne Cloud im Vormarsch

Cloud Computing kann zur Verbesserung des sogenannten ökologischen Fussabdrucks beitragen.

Möglichkeiten ergeben sich beispielsweise durch eine wesentlich bessere Auslastung in modernen Cloud-Rechenzentren. Dadurch kann Hardware eingespart werden, die in der Regel wesentlich moderner (und somit energieeffizienter) ausgestattet ist als in herkömmlichen Rechenzentren. Eine weitere Möglichkeit ist der Betrieb an Rechenzentrumstandorten, die eine geringere Kühlung erfordern. Wenn Cloud Computing dazu beiträgt, dass die Hardwareanforderungen von Millionen von Endgeräten verringert wird, senkt dies den Energieverbrauch enorm.

Die Umweltorganisation Greenpeace gibt in der aktuellen Studie „Clicking Clean“ zu bedenken: „Wäre das Internet ein Land, so hätte es weltweit den sechstgrößten Stromverbrauch„. Laut der Studie war im Jahr 2011 der Stromverbrauch aller Rechenzentren und Netzwerke der Cloud höher als jener in ganz Deutschland. Bemängelt wird weiters der Bezug von „schmutzigem Strom“ (Strom aus Atom- oder Kohlekraftwerken).

Es zeichnet sich aber mittlerweile eine Trendwende ab. Big Player wie z.B. Apple, Facebook, Google und SAP wollen zukünftig ihre Rechenzentren zu 100% mit Strom aus erneuerbaren Quellen betreiben. Google hat bisher mehr als eine Milliarde Dollar in Solarparks oder Windanlagen investiert und bezieht von dort „grünen Strom“, Apple versorgt seine Rechenzentren mit Solarstrom und selbst der deutsche Softwareriese SAP will seinen Anteil an grünem Strom auf 100% erhöhen.

Veröffentlicht unter Cloud, Studie | Verschlagwortet mit , , , , , , , | Hinterlasse einen Kommentar

Wie kann Europa zu einem vertrauenswürdigen Cloud-Computing-Standort werden?

Diese und andere Fragen stellt die Europäische Cloud-Partnerschaft (ECP) in einer aktuellen Umfrage. Darin wird um Stellungnahmen der Europäer zur Initiative „Trusted Cloud Europe“ gebeten. Diese Initiative wurde von ECP mit dem Ziel gegründet, öffentliche und private Einrichtungen und Unternehmen beim Kauf und Verkauf von Cloud-Diensten in einem sicheren und vertrauenswürdigen Umfeld zu unterstützen.

Angesichts der Tatsache, dass die Cloud-Wirtschaft in Europa stark wächst und ihr Beitrag zum BIP bis zum Jahr 2020 mit 940 Mrd. EUR prognostiziert wird, ist klar welche enorme Power dahintersteckt und dass Europa in dieser Sache nichts dem Zufall überlassen will.

Neelie Kroes, Vizepräsidentin der Europäischen Kommission, erklärt dazu: Angesichts des andauernden Vertrauensverlusts in das Internet ist diese Initiative der Europäischen Cloud-Partnerschaft besonders wichtig. Nun bin ich gespannt auf die Meinungen der Europäer. Europa hat dank hoher Standards in Sachen Datenschutz, Sicherheit, Organisation öffentlicher Dienste und Transparenz einen guten Ruf. Ich hoffe, dass wir bald auch zu den besten Cloud-Computing-Standorten der Welt zählen werden.

Hervorragende Initiative! Hier geht’s zur Umfrage.

Veröffentlicht unter Cloud, Datenschutz, News | Verschlagwortet mit , , , , , , | Hinterlasse einen Kommentar

Topthema „Datability“ auf der CeBIT 2014

Nach Cloud Computing, Managing Trust und Shareconomy in den vergangenen Jahren, ist Datability (ein Kunstwort, dass sich aus den Begriffen „Big Data“ und „Sustainabilty“ zusammensetzt) der Schwerpunkt der diesjährigen CeBIT.

Big Data: Die Fähigkeit, Daten bereitzustellen, zu analysieren, aufzubereiten und als Organisation daraus die richtigen Entscheidungen abzuleiten, wird immer stärker zum entscheidenden Wettbewerbsvorteil. Die Tatsache, dass viele Hersteller und Systemhäuser auf der CeBIT deren Big Data-Lösungen präsentieren, beweist dass Big Data ein gutes Geschäft zu sein scheint.

Sustainability: Der zweite Teil des Kunstwortes steht für Nachhaltigkeit und unterstreicht, dass Big Data einerseits eine Riesenchance ist, da der wirtschaftliche Nutzen unbestritten ist und unser aller Leben enorm erleichtern kann (z.B. als Patient im Gesundheitswesen; siehe auch Blogeintrag „Big Data – Chancen und Risiken“). Andererseits soll nicht darauf vergessen werden, Daten nachhaltig und verantwortungsvoll zu nützen und zu schützen.

Veröffentlicht unter Big Data, News | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

Verlinken laut EuGH erlaubt

Der EuGH entschied, dass man im Web einen Link zu fremden, urheberrechtlichen Inhalten setzen darf. Es darf dabei sogar der Eindruck entstehen, dass der Inhalt von der eigenen Webseite stamme. Dies sei urheberrechtlich unbedenklich, solange beispielsweise kein Passwortschutz umgangen werde.

Laut Michael Woller, IP-Experte bei Schönherr, sei dies aber kein Freibrief, denn bei dieser Entscheidung ging es nur um das Urheberrecht.

Mehr dazu lesen Sie im Rechtspanorama von diepresse.com.

Veröffentlicht unter Datenschutz, News | Verschlagwortet mit , | Hinterlasse einen Kommentar

EU kommt bei der Datenschutzreform nur langsam voran

Die derzeitig in der EU geltenden Datenschutzregeln stammen noch aus einer Zeit, in der an Facebook, Cloud&Co, geschweige denn eine regelmässige Internetnutzung, gar nicht zu denken war (siehe auch Blogeintrag “EU-Parlament beschliesst neue Regeln für einheitlichen Datenschutz”). Europa kommt bei der geplanten Datenschutzreform, nach nunmehr zwei Jahren Diskussion über zentral Punkte, nur sehr langsam voran.

Man kann nur hoffen, dass diese wichtige Reform, die einheitliche Gesetze in der gesamten EU schaffen und dem Flickwerk bestehend aus 28 verschiedenen nationalen Datenschutzregeln ein Ende bereiten soll, bald umgesetzt wird. EU-Justizkommissarin Viviane Reding hofft, dass der nächste Juni-Rat Resultate bringen wird.

Mehr Informationen zu diesem Thema liefern Focus.de, Futurezone.at und Süddeutsche.de.

Veröffentlicht unter Datenschutz, News | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Fehlen Ziele für Datenanalyse?

Laut KPMG lassen sich aus den in gigantischer Fülle zur Verfügung stehenden Datenmengen nicht zwingend sinnvolle Informationen herausfiltern. Eine von KPMG Capital beauftragte Studie unter 144 CIOs und CFOs belegt, dass viele Unternehmen bei ihren Data Analytics (D&A)-Bemühungen scheitern.

Mehr als zwei Drittel der Befragten halten Daten prinzipiell wichtig fürs Geschäft. Allerdings fehlt vielen Entscheidungsträgern schlichtweg der Plan, was sie mit den Daten anfangen sollen. Es besteht Unsicherheit, welche Daten überhaupt gesammelt werden sollen. Somit gestaltet sich die Implementierung geeigneter Lösungen für die Analyse und Interpretation vorhandener Daten äusserst schwierig.

Die Vorteile von Data Analytics liegen auf der Hand, die technischen Lösungen sind da, trotzdem besteht hier offensichtlich Nachholbedarf.

Mehr Informationen zu diesem Thema liefert Computerwelt.at.

Veröffentlicht unter Big Data, News, Studie | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar

Analyze der Gesundheitsdaten: Kostenminimierung durch Big Data

Gastbeitrag von Mag. Alexander Weinbacher:
View Bernhard Kainrath's profile on LinkedIn

Die Datenbestände wachsen exponentiell. Wir haben heute mehr Informationen verfügbar denn je und sind doch kaum in der Lage, diese Vielfalt an Daten zur Verbesserung unserer Entscheidungen zu nützen. Dies will Content Analytics (CA) ermöglichen. Ziel ist es, Entscheidungen fundierter als bisher zu treffen, also basierend auf gesicherten Erkenntnissen anstatt auf Hörensagen, Gewohnheit und Vermutung.

Die Mehrzahl der Daten liegt aber nicht in strukturierter Form vor (Datenbanken mit fixem Raster wo welche Information einzutragen ist), sondern unstrukturiert in Emails, Dokumenten, Blogs und Multimediainhalten wie Mitschnitten wissenschaftlicher Vorträge. Mittels semantischer Analyse (Semantik=Bedeutungslehre) werden diese Inhalte verarbeitet, Sinnzusammenhänge automatisch erkannt und strukturiert aufbereitet. Die dazu nötige Software hat in den letzten zehn Jahren einen schier unglaublichen Entwicklungsschritt nach vorne vollzogen und ist nun bereit für den Praxiseinsatz. Und hier meine ich nicht das, was uns Google seit zehn Jahren täglich vorführt…

Einer der Wachstumsmärkte für CA ist ein Bereich, der sich seit langem hartnäckig und geschickt fast jedem Versuch von objektiver Qualitätskontrolle zu entziehen vermochte – das öffentliche Gesundheitswesen: In Arztbriefen, Befunden, Patientenakten liegen ungeahnte, wertvolle Informationen brach, die unmittelbar in die Verbesserung der Therapieerfolge einfliessen können und zur Eindämmung unnötiger, kostspieliger (Mehrfach-) Untersuchungen zukünftig auch werden müssen!

Durch Auswertung dieser gigantischen Datenmengen können aufgrund objektiv gemessener und dokumentierter Praxisdaten die Therapiewege in mehr erfolgreiche und weniger erfolgreiche kategorisiert werden. Ausgehend von der Diagnose wird – abgestimmt auf den jeweiligen Patiententypus – dem Arzt vorgeschlagen, welche Therapiemethode basierend aus der Erfahrung von Millionen abgeschlossener oder gescheiterter Heilungen die erfolgversprechendste sein sollte. Mit jedem Anwenden steigen die Erkenntnisse und die Treffsicherheit.

Diese Entscheidungsunterstützung ist tagesaktuell, auf Fakten basierend und lässt dennoch ausreichend Spielraum für die Entscheidung des Arztes der kraft seiner Erfahrung die Letztverantwortung trägt. Jedoch wird er dabei zukünftig leichter und rascher auf objektive Entscheidungsgrundlagen zurückgreifen können als derzeit: Eine objektive und gesicherte Wissensbasis, die keine andere  Heilmittelinformation jemals bieten kann und oft auch nicht will!

Veröffentlicht unter Big Data | Verschlagwortet mit , , , , , | Hinterlasse einen Kommentar