Immer mehr PC’s werden mit unerwünschten Programmen und Toolbars verseucht

Categories: Internet Business
Tags: ,
Comments: Comments Off
Published on: Oktober 20, 2014

Seit geraumer Zeit werden die Internetnutzer mit hinterhältiger Software genervt. Es kann schon beim Installieren von bestimmter kostenloser Software passieren, dass man sich zwar das gewünschte Programm installiert, aber nebenbei oft noch andere Programme installiert werden, die keinerlei nützliche Funktionen haben, sondern nur den Rechner mehr oder weniger mit Werbung oder angeblichen Systemoptimierungsprogrammen lahmlegen. Dabei handelt sich meistens nicht um Viren oder Trojaner im klassischen Sinn, es geht vielmehr darum, dass die Werbung angeklickt wird oder für die Freischaltung eines unwirksamen Programms Geld verlangt wird. Es gibt aber auch den Fall, dass man sich auf nicht ganz legalen Seiten aufhält und da z.B. aufgefordert wird , den Videoplayer zu aktualisieren oder einen neuen Player zu aktualisieren, um den Film sehen zu können. Tut man dies von einer dieser Seiten, hat man eine ganze Reihe von Problemen. Es geht los, dass die Startseite des Browsers (Internet Explorer, Google Chrome oder Firefox) und der der Standardsuchanbieter

geändert wird, sowie diverse unnütze und bremsende Browser-Addins und Toolbars installiert sind. Stichworte sind hier Nationzoom, sweetpage, ask toolbar, mysearch, wajam, search-protect, deltasearch und Ähnliches. Unerwünschte Programme sind z.B. My PC-Backup, System Optimizer, regcleaner u. ä. . Zur Entfernung dieser Malware benötigen User, die keine tieferen Computerkenntnisse haben, einen PC Service. Es genügt nicht, einfach die Browser zurückzusetzen oder neu zu installieren. Man muss diverse Reinigungsprogramme und Scanner in einer bestimmten Reihenfolge laufen lassen, um wirklich alles loszuwerden. Ich nenne hier bewusst nicht die Vorgehensweise, weil man ohne PC-Kenntnisse auch mehr Schaden anrichten kann, schlimmstenfalls startet der Rechner gar nicht mehr. Und dann ist umso mehr ein Fachmann von einem PC Notdienst gefragt.

 

Im Internet gibt es zu dieser Problematik auch den Tipp, das Betriebssystem neu aufzuspielen, was oft einen sehr großen Aufwand bedeutet. Meiner Erfahrung nach ist das in den meisten Fällen nicht nötig, man kann in der Regel den PC vollständig bereinigen. Allerdings gibt es den Fall, dass man diese Malware so gut es geht, ignoriert und mit dem Rechner einfach weiter arbeitet. Dann kann es passieren, dass im Hintergrund weitere Programme heruntergeladen und installiert werden, die dann mitunter wirklich nur durch eine Neuinstallation von Windows entfernt werden können. Da bei einer Neuinstallation von Windows alle Daten verloren gehen, muss dafür oft ein Computerservice beauftragt werden, der die Daten ohne Malware sichern kann.

 

Tipp: Lassen Sie sich nicht verführen, irgendwelche Updates von einer Webseite herunterzuladen. Wichtige Updates wie z.B. Windows Updates oder Flash-Player Updates meldet immer das Betriebssystem selbst, ohne einen Browser geöffnet zu haben. Falls Sie ein kostenloses Programm installieren möchten, sollten Sie das von einer seriösen Quelle herunterladen, am besten von einer de-Webseite. Sollte es Sie doch mal erwischt haben, wenden Sie sich an einen Computerservice.

Yoga Tablet 2 Pro vorgestellt

Categories: Bewertungen
Tags: ,
Comments: Comments Off
Published on: Oktober 20, 2014

Das neue Yoga Tablet 2 Pro von Lenovo

Es ist eine Idee, die zugleich nahe liegt und doch überrascht. Lenovo hat bei einer Produktpräsentation in London unter anderem das Yoga Tablet 2 Pro gezeigt, das im Standfuß einen Beamer integriert hat. Der Inhalt, der auf dem Bildschirm dargestellt wird, kann der Nutzer in abgedunkelten Räumen auf weißen Flächen wie Wänden oder Decken werfen. Laut Lenovo schafft der Beamer eine Bilddiagonale bis zu 127 Zentimeter. Das sind immerhin 50 Zoll.

 

Dass andere Hersteller bisher noch nicht auf diese Idee gekommen sind – oder sie nicht umsetzen konnten – liegt an der besonderen Form des Yoga Tablet. Eine der beiden längeren Kanten ist etwas dicker, weil dort bewusst der Akku verbaut ist. So kann das Tablet ähnlich einem aufgeschlagenen Buch von dem Nutzer in der Hand gehalten werden. Lenovo spricht von einem „ergonomischen Zylinder“. Zudem hat der Hersteller an dieser Seite einen kleinen Klappständer integriert. Dadurch lässt es sich etwa auf einen Tisch stellen.

Diese beiden Funktionen werden die Alleinstellungsmerkmale des Yoga-Tablets der kleineren Varianten auch bleiben. Denn nur das große Modell in 13 Zoll wird den Beamer integriert haben.

Michael Spehr hatte die erste Version des Yoga getestet und war von ihm überzeugt. „Im Vergleich mit den beiden iPad-Baureihen ist das von uns erprobte kleinere Yoga durchaus eine Alternative zum iPad Mini der ersten Generation. Insgesamt wird dieser Lenovo ein Erfolg. Nach vielen Irrwegen sind die Chinesen nun im Tablet-Markt angekommen.“

Im Unterschied zu diesem Tablet hat Lenovo auf mehreren Ebenen nachgerüstet. Alle Varianten (8, 10 und 13 Zoll) sind jetzt mit einem Intel-Atom-Prozessor ausgestattet, das Betriebssystem ist mit Android 4.4 aktuell, die Rückkamera hat acht Megapixel und die Frontkamera 1,6 MP. Das Modell mit dem Beamer hat ein „Quad-HD-Display“ mit einer üppigen Auflösung von 2560 x 1440 Pixel. Hinzu kommen zwei Frontlautsprecher und ein „Bass-Subwoofer“ (ein Pleonasmus, weil Subwoofer immer den Frequenzbereich des Basses wiedergibt), die Dolby-Surround-Sound ausgeben können.

Eine kleine Änderung im Design des Ständers hat große Wirkung. Weil er in der Mitte eine quadratische Auslassung hat, kann man das Yoga-Tablet auch wie ein Bild aufhängen. Lenovo schlägt als Einsatzort die Küche vor: „Schau dir beim Kochen einen Film an.“ Bei den meisten dürfte dann nur noch der ungenutzte Nagel fehlen, um es so nutzen zu können. Lenovo verspricht im Übrigen 15 Stunden Akkulaufzeit.

Mehr zum Thema

Wie lichtstark der Beamer ist, ob das Soundsystem etwas taugt und wie lange der Akku tatsächlich hält, werden wir beurteilen können, wenn wir ein Testgerät bekommen haben. Es könnte sich – wie schon der Vorgänger – um ein spannendes Produkt handeln. Zumal es zwei kleineren Modelle auch mit Windows 8.1 als Betriebssystem geben wird.

Die Preise beginnen bei 229 Euro für das kleine und enden bei 599 Euro für das große Tablet, das dann auch im LTE-Standard funken kann.

Smartphones reparieren lassen – lohnt sich das?

Categories: Smartphones
Tags: ,
Comments: Comments Off
Published on: Oktober 15, 2014

Smartphones und Tablets sind mittlerweile in unserem Alltag allgegenwärtig. Es ist heute selbstverständlich, dass man fast überall online sein kann, beim Warten auf den Bus, in der U-Bahn, beim Arzt im Wartezimmer, ja selbst in Clubs, wo auch auf der Tanzfläche schnell die letzten What’s up Nachrichten gecheckt werden. Aber wie das so bei Geräten ist, die man ständig dabei hat, gibt es auch Schattenseiten. Teilweise sind Smartphones sehr empfindlich, gerade das Display und der Touchscreen sind Schwachstellen beim Smartphone. Schnell ist das Display zerkratzt oder nach einem Fall auf harten Untergrund gebrochen. Zuweilen gibt es auch ohne äußere Einflüsse Störungen beim Bedienen des Touchscreens oder das Smartphone lässt sich nicht mehr starten.

 

Das andere große Problem mit mobilen Geräten, vor allem bei Smartphones, ist der ständige Hunger nach Strom. Bei intensiver Nutzung von Wlan, 3G oder LTE und GPS ist bei vielen iPhones und bei Smartphones von Samsung, HTC und Sony am Abend der Akku leer. Das Fiese ist, dass der Akku immer schlechter wird, also weniger Energie speichern kann und er dadurch kontinuierlich Ladekapazität verliert.

 

Doch eine defektes Display, ein defekter Touchscreen oder Bruch des Gehäuses und auch ein schwächer werdender Akku bedeutet nicht, dass man sich gleich ein neues teures Smartphone kaufen muss. Die meisten Nutzer können allerdings nichts selbst an ihrem Smartphone reparieren. Man benötigt Spezialwerkzeug und das nötige Wissen. Bei der Demontage kann man sehr schnell etwas kaputt machen, die Geräte wollen sanft behandelt werden. Dafür gibt es Anbieter, die Smartphones professionell reparieren. Bei den meisten Geräten kann man sowohl das Display als auch den Touchscreen austauschen lassen. Die Ersatzteile sind nicht gerade billig, aber der Gesamtpreis einer Reparatur ist in den meisten Fällen günstiger als ein neues Smartphone. Auch der Akku lässt sich meistens durch einen frischen ersetzen, was für viele, die ständig auf der Suche nach Lademöglichkeiten sicher eine gute Nachricht ist. Schauen Sie sich in Ihrer Gegend um, welche Anbieter für die Reparatur von iPhones, Samsung Galaxy, HTC und Sony Smartphones in Ihrer Nähe sind. Meines Erachtens ist es besser, sein defektes Smartphone zu einem lokalen Dienstleister zu bringen, als es an einen Anbieter im Internet zu schicken. Viele Werkstätten bieten einen Express-Service an, sodass man mit etwas Glück sein geliebtes Smartphone nach 1 Stunde bereits wieder abholen kann.

Wirkungslos – Internet-Nutzer tricksen Netzsperren mit alternativen DNS aus

Categories: Domains
Comments: Comments Off
Published on: Oktober 13, 2014

Nach wochenlangem juristischen Gerangel war es am Donnerstagabend dann doch so weit: Seitdem sind in Österreich die ersten Netzsperren aktiv. Aufgrund einer einstweiligen Verfügung wurden die Seiten kinox.to und movie4k bei den meisten Providern blockiert. Wer diese auf ihren ursprünglichen Adressen ansurfen will, bekommt statt dem erwarteten Inhalt nur mehr eine simple Fehlermeldung.

Hallo Frau Streisand

Ob sich die Rechteverwertungsindustrie mit diesem Schritt einen wirklichen Gefallen getan hat, steht freilich auf einem anderen Blatt. Immerhin hat seitdem der Streisand-Effekt seine volle Wirkung entfaltet. Selbst wer zuvor von den beiden Seiten noch nichts gehört hatte, ist mittlerweile bestens über diese informiert – und an alternative Adressen, über die beiden Services zu erreichen sind, mangelt es ebenfalls nicht. Doch auch sonst dürften die Sperrmaßnahmen kaum eine – oder zumindest keine negative – Auswirkung auf die Intensivität der kinox.to und movie4k-Nutzung aus Österreich haben. Lassen sich die nun errichteten Hürden doch äußerst einfach umgehen.

Schwache Sperre

Dies liegt daran, dass die Sperre lediglich über eine Veränderung der Domain-Name-System-(DNS)-Datenbank bei den Providern implementiert ist. Diese ist dazu, die die IP-Adresse eines Servers (beispielsweise: 194.116.243.20) – also jene Zahlenkombination über die er anderen Rechnern bekannt ist – einer für Menschen einfach merkbar Adresse wie derStandard.at zuzuweisen. Nun haben also die österreichischen Provider schlicht die Einträge für die von den Rechteverwertern beanstandeten Domainname verändert.

DNS-Alternativen

Und genau dieser Umstand macht es den Nutzern nun so einfach die aktuellen Netzsperren auszutricksen. Es ist nämlich keineswegs notwendig, die DNS-Einträge des eigenen Anbieters zu verwenden. Wer schon bislang alternative DNS-Server verwendete, merkte von der Aktivierung der Netzsperren in Österreich exakt: Nichts. Und solche öffentlich verfügbare DNS gibt es zuhauf, so hat etwa Google seit einigen Jahren eigene DNS im Angebot. Und neben speziellen Services wie DNS.Watch oder OpenDNS hat sogar der deutsche Chaos Computer Club ein entsprechendes Angebot. In all diesen sind die alten Zuweisungen für kinox.to und movie4k weiterhin aktiv.

Einfach

Die Aktivierung alternativer DNS ist dabei bei allen gängigen Betriebssystemen ohne sonderlichen Aufwand in den Netzwerkeinstellungen vorzunehmen. Anleitungen gibt es dafür im Internet zuhauf. Wer sich ersparen will, jeden einzelnen Rechner neu zu konfigurieren, kann die alternativen DNS auch gleich am Router aktivieren, dann werden sie automatisch an alle lokalen Rechner und mobilen Geräte weitergereicht.

Ausgetrickst

Zumindest solange bis die Netzsperren in Österreich lediglich über DNS-Manipulationen implementiert ist, ist dieser Ausweg der derzeit wohl komfortabelste. Mit ein paar Minuten Aufwand spüren die Nutzer von den Sperren gar nichts mehr. Die Verwendung alternativer Domains / URLs hat hingegen den Nachteil, dass diese – zumindest soweit die Erfahrung in anderen Ländern zeigt – schon bald ebenfalls gesperrt werden. Und beim direkten Ansurfen von IP-Adressen können andere Probleme auftreten, etwa mit Sicherheitszertifikaten, oder weil eine IP von mehreren Domains genutzt wird, was gerade bei kleineren Angeboten nicht unüblich ist. (apo, derStandard.at, 5.10.2014)

 

Zuerst erschienen auf:

http://derstandard.at/

Neues “Borderlands” ist total bekloppt, aber gut

Categories: Spiele
Tags:
Comments: Comments Off
Published on: Oktober 12, 2014

Die “Borderlands”-Reihe war schon immer bekloppt: Hier mischen sich nicht nur Ego-Shooter und Rollenspiel – nein, es trifft auch noch Comic-Grafik auf abgedrehten Humor, der nicht immer Sinn ergeben muss. Dazu kommen Abermillionen von automatisch generierten und entsprechend bizarren Science-Fiction-Schießeisen.

So überrascht es nicht, was die Macher von Gearbox Software gemeinsam mit dem Studio 2K Australia für den neuesten Teil ausheckten. Denn den feuern sie gezielt in die Fünfjahreslücke, die zwischen den ersten beiden Teilen klafft: ein “Pre-Sequel” eben. Obendrein verfrachten sie die Handlung weg von der einstigen Spielwelt, dem Planeten Pandora, hinauf auf dessen Mond Elpis – und auch auf die Raumstation Helios, die über diesem schwebt.

Ach, und die Kerle, die in Teil zwei noch die Bösen waren, die sind nun die Guten – irgendwie jedenfalls. “Wir wollen den Spielern damit zeigen, wie jene Typen in ‘Borderlands 2′ zu dem wurden, was sie sind”, erklärt dazu James Lopez, Spieldesigner von Gearbox. Insbesondere Handsome Jack, der in “Borderlands 2″ den fiesen Alleinherrscher Pandoras mimt, ist hier ein Computernerd und eigentlich feiner Kerl, der anfänglich gute Absichten hat!

Neues Helden-Quartett

Daher schlüpfen Sie in “The Pre-Sequel” allein oder im Koop-Verbund mit drei Freunden auch nicht in die Haut mutiger Abenteurer, sondern der vier Typen, die Jack auf den Thron hieven werden. Die kommen natürlich allesamt mit ihren eigenen Fähigkeiten und Talentbäumen daher: So zückt Gladiatorin Athena einen Energie-Schild, der Feindfeuer aufsaugt und es gesammelt mit doppelter Wucht auf einen Gegner zurückwirft.

Der bärtige Enforcer Wilhelm hat einen starken Robo-Arm und ruft sich eine bewaffnete Flugdrohne zur Unterstützung herbei. Die Sheriff-Dame Lawbringer Nisha hingegen kann kurzzeitig automatisch Gegner ins Visier nehmen und hat zudem eine Peitsche im Gepäck. “Ich denke, wir haben hier einige verdammt coole Ideen gehabt”, sagt Lopez.

Aber am witzigsten ist der kleine und plappernde Roboter Claptrap, die Fragtrap! Er analysiert auf Knopfdruck die Situation auf dem Schlachtfeld: Basierend auf Gegnern und Mitspielern errechnet er, welcher Charakter aus “Borderlands” hier am besten durchkäme, und imitiert kurzzeitig dessen Fähigkeiten – oder wählt schlicht wahllos Boni und Skills. Beispielsweise macht er einen auf Gunzerker, was ihn plötzlich zwei Waffen schwingen lässt. Oder er gibt das “One Shot Wonder”, was das gesamte Magazin aller Waffen in einem Schuss entlädt. Kurz gesagt: Wer Claptrap spielt, weiß nie, was ihn erwartet.

Wie immer, nur anders

Spielerisch hingegen ist vollkommen klar, was auf einen zukommt: volle Kanne “Borderlands”! Hier und da nehmen Sie Missionen an, die Sie kreuz und quer über den Mond scheuchen. Da muss für Jack eine Sendeanlage übernommen, für Lady Spring ein Kinderbuch gefunden oder irgendwo die verschwundene Frau des wirren Myron gerettet werden.

Natürlich mündet all das in herrlich chaotischen Massenschießereien. Sie halten aus voller Büchse drauf, wenn plötzlich die Weltall-Cousins von bekannten Gegnern auf Sie zustürmen: Psychos in Raumanzügen, Zwerge mit Jetpacks auf dem Rücken oder gigantische 200-Kilo-Bad-Ass-Astronauten mit Riesenkanonen. Gut, dass der Spieler neue Tricks draufhat.

Dank niedriger Gravitation springt man nun etwa etliche Meter weit, kann mit einem Satz auf Gebäude hopsen, lässig umhersegeln und währenddessen mit neuen Schießprügel-Varianten wie Gefrierstrahl-Gewehren oder Laser-Schrotflinten Lava-Biester oder gar Raumgleiter unter Beschuss nehmen. Und hat sich direkt unter einem eine Horde von Feindvolk versammelt, saust man auf Tastendruck mit einem Affenzahn hinab und knockt sie allesamt aus. Groundpound nennt sich das!

Tauschgeschäfte

Ganz klar, “Borderlands”-Kenner werden sich sofort zurechtfinden. So ziemlich jede Neuerung passt herrlich ins Konzept und ist dabei vollkommen selbsterklärend. Beispielsweise müssen Sie auf dem Mond zwar auf Sauerstoff achten, der in einer Leiste unterhalb der Lebensleiste verbraucht wird.

Allerdings strömt der überall aus dem Mondboden und lädt sich automatisch in Gebäuden auf. Fahrzeuge? Die gibt’s auch auf dem mit Lava und Eis dekorierten Erdtrabanten – eben in Form von Mondautos oder Schwebe-Motorrädern, die mit dicken Kanonen bestückt sind. Und statt ungeliebte Waffen zu verkaufen, kann Ballerschrott nun auch in einen sogenannten Grinder-Automaten geworfen werden, der daraus eine neue und meist bessere Zufallswumme bastelt. Super!

Warum ist das Gearbox eigentlich nicht früher eingefallen? Mit alldem rütteln die Entwickler zwar nicht am Fundament des Blödel-Action-Shooters, wagen keine allzu heiklen Experimente, aber packen durchaus noch eine Schippe Irrsinn obendrauf. Und zwar eine Schippe, die genug Abwechslung und Frische für freudiges Dauerfeuer verspricht.

Prognose: So mancher hatte hinter “Borderlands – The Pre-Sequel” eine halbherzige Auskopplung vermutet. Doch all die kleinen, aber feinen Ideen, die Entwickler Gearbox und 2k Australia hineinpacken, beweisen schon jetzt das Gegenteil. Kreativ, abgefahren und noch ein Stückchen überdrehter als die Originale kommt der spielerische Lückenfüller beim Probespiel daher.

Vorallem bei Robo Claptrap haben die Macher Kreativität gezeigt. Doch müssen zum Erscheinen auch noch Story, Charaktere und vor allem Abwechslung in den Missionen unter Beweis gestellt werden. Dann dürfte abgefahrenen Baller-Abenden aber nichts mehr im Wege stehen.

Erscheinungstermin: 17. Oktober 2014 für PC, PS3 und Xbox 360.

 

externer Link zum Artikel:

http://www.welt.de/spiele/article132994325/

Netflix startet am 16.9. – Kooperation mit Telekom und Vodafone

Categories: Audio-Video-Streaming
Tags: ,
Comments: Comments Off
Published on: Oktober 1, 2014

Netflix hat sich zu seinem Deutschlandstart am 16.9. starke Partner mit ins Boot geholt. Nämlich die Deutsche Telekom und Vodafone.
Am Dienstag den 15. September 2014 startet Netflix seinen Video-Streamingdienst in Deutschland. Um sich gegen die hiesigen Platzhirsche wie Maxdome, Sky und Amazon Prime Instant Video durchzusetzen, hat Netflix offensichtlich eine Partnerschaft mit der Deutschen Telekom und Vodafone geschlossen.

Das berichtet die Wirtschaftswoche in ihrer Online-Ausgabe. Netflix soll mit seinen Inhalten demnach das Video-on-Demand-Angebot Entertain der Deutschen Telekom erweitern. Bei der Deutschen Telekom wäre Netflix aber nicht der erste Kooperationspartner in Sachen Video-Streaming. Denn die Telekom arbeitet diesbezüglich schon mit Sky und Maxdome zusammen. Wie der Mediendienst Meedia berichtet, strebe die Deutsche Telekom ein möglichst vollständiges Unterhaltungsangebot bei Entertain an.

Aber nicht nur beim Internet via DSL kommen wohl Netflix-Inhalte im Rahmen einer Kooperation zum Einsatz. Auch Vodafone will sein Unterhaltungsangebot mit Hilfe von Netflix offensichtlich aufbohren (die Netflix-Apps für iOS und Android gibt es bereits). Nur dass bei es Vodafone eben darum geht Netflix-Inhalte via Mobilfunk anzubieten. Laut Wirtschaftswoche soll auch E-Plus an einer Kooperation interessiert sein.

Preise

Netflix startet am Dienstag in Deutschland. Die Monatsabos sollen 7,99 Euro (ein Gerät und SD-Auflösung), 8,99 Euro (bis zu zwei Geräte und bis zu HD-Auflösung) oder 11,99 Euro (bis zu vier Geräte, bis zu Ultra-HD-Auflösung) kosten. Um dem deutschen Filmgeschmack zu treffen, sind unter anderem Till-Schweiger-Filme, “Stromberg” und “Die Sendung mit der Maus” mit an Bord. International große Anerkennung erwarb sich Netflix mit der Eigenproduktion House of Cards mit Kevin Spacey.

 

Adresse der Quelle:

http://www.pcwelt.de

Firefox 32 steht zum Download bereit

Tags: ,
Comments: Comments Off
Published on: September 19, 2014

Firefox 32 ist erschienen und bietet wichtige Verbesserungen sowohl beim Passwort-Manager als auch beim Malware-Schutz.

Mozilla bereitet derzeit die Veröffentlichung von Firefox 32 vor. Die neue Version steht bereits auf den FTP-Servern von Mozilla zum Download bereit. In Kürze dürfte dann auch die offizielle Veröffentlichung folgen. Wer nicht so lange warten möchte, der kann Firefox 32 hier bereits jetzt herunterladen.

Das neue Firefox 32 bietet vor allem Verbesserungen im Bereich Sicherheit. Der neue Passwort-Manager wurde deutlich aufgepeppt und liefert den Anwendern nun auch Informationen darüber, wann ein Passwort das letzte Mal verwendet und aufgerufen wurde. Der Passwort-Manager lässt sich wie gewohnt über die Einstellungen im Reiter “Sicherheit” und dort nach einem Klick auf “Gespeicherte Passwörter” aufrufen.

Firefox 32 mit Malware-Schutz für Downloads

Firefox 32 überprüft Downloads automatisch auf Malware und zwar über die Google Application Reputation Database. Bei einem Fund schlägt Firefox sofort Alarm und verweigert das Aufrufen der betreffenden Datei. Dieser Malware-Schutz kann nur manuell in den Einstellungen abgeschaltet werden. Die entsprechenden zwei neuen Einträge finden sich im Reiter “Sicherheit” und tragen die Bezeichnungen: “Webseite blockieren, wenn sie als attackierend gemeldet wurde” und “Website blockieren, wenn sie als Betrugsversuch gemeldet wurde”. Die entsprechenden Häkchen sollten nur in extremen Ausnahmefällen entfernt werden und anschließend sofort wieder gesetzt werden. Ansonsten sind Sie beim Surfen mit dem Firefox nicht über dessen Safebrowsing-Funktion geschützt.

Firefox 32 mit Public Key Pinning

In Firefox 32 ist auch die Unterstützung für die Sicherheitsfunktion Public Key Pinning aktiviert. Diese Funktion überprüft beim Aufruf einer Website mit Sicherheitszertifikat, ob dieses von einem vertrauenswürdigen Herausgeber stammt. Die Betreiber der Seiten können über Public Key Pinning auch Zertifizierungsstellen festlegen, von denen sie die Zertifikate erhalten. Sollte beim Aufruf der Website das Zertifikat von einer anderen Zertifizierungsstelle stammen, dann wird der Aufruf der Website unterbunden. Auf diese Weise können Man-in-the-Middle-Attacken unterbunden werden.

Firefox 32: Neues Kontextmenü, Suchleiste und verbesserter Müll-Sammler

Hinzu kommen bei Firefox 32 eine Reihe weiterer kleinerer Verbesserungen. Das Kontextmenü erscheint nun in einer neuen Form. An oberster Stelle werden hier nur die Pfeile für Vor und Zurück angezeigt. Ebenso ein Icon zum Aktualisieren der Website und zum Ablegen in den Favoriten. Auf diese Weise lassen sich nun mit der Maus und über das Kontextmenü neue Websites besonders schnell in die Favoriten aufnehmen. Schneller ist nur das Tastatur-Kürzel Strg + D.

Auch von der Integration des generationellen Müllsammlers ist in den Release-Notes die Rede, der das schnellere Ausführen von Javascript-Code ermöglichen soll. Bei der Suchfunktion innerhalb der Seite (Strg + F) werden nach Eingabe eines Suchbegriffs nun auch die Anzahl der gefundenen Treffer angezeigt. Eine Funktion, die Google Chrome bereits seit langer Zeit bietet und die äußerst praktisch ist.

 

Seite besuchen:

http://www.pcwelt.de/news/Firefox_32_erschienen_-_mit_neuem_Passwort-Manager_und_Malware-Schutz-Browser_in_neuer_Version-8885710.html

Das Netzwerk über die Stromkabel aufbauen

Categories: Networks
Tags: ,
Comments: Comments Off
Published on: September 17, 2014

In den meisten Haushalten in Deutschland gibt es mittlerweile mehr als ein internetfähiges Gerät. Oft hat man noch einen Desktoprechner einen oder zwei Laptops und mehrere Smartphones je nach Größe der Familie. In vielen Fällen ist ein Router alleine damit überfordert, alle Räume der Wohnung oder des Hauses mit einem stabilen Netz zu versorgen. Nun hat man die Möglichkeit, das vorhandene WLAN-Netz mit einem oder zwei Repeatern zu erweitern, allerdings wird es immer so bleiben, dass eine WLAN Verbindung immer etwas weniger stabil ist. Für manche Anwendungen wie zum Beispiel große Downloads oder Online-Spiele ist es immer besser, eine stabile LAN-Verbindung zu haben. Außer in hochwertigen Neubauten sind für gewöhnlich in Wohnungen und Häusern keine Netzwerkkabel verlegt, so dass dies nachträglich eingebaut werden müsste. Für viele ist es ein zu großer Aufwand, das ganze Haus neu zu verkabeln. Die Lösung für dieses Problem ist das so genannte d-LAN, eine Technologie, die eine LAN-Verbindung über die vorhandenen Stromleitungen herstellt. Dafür gibt es auf dem Markt Adapter, die man einfach in die Steckdose steckt und so das Haus vernetzt. Wichtig dabei ist, dass man möglichst die Adapter direkt in eine Wandsteckdose steckt, der Betrieb in einer Mehrfachsteckdose kann Störungen verursachen. Als zusätzliches Feature gibt es auch d-LAN-Adapter, die gleichzeitig als WLAN-Hotspot fungieren. Damit hat man auch im ganzen Haus Empfang mit einem Smartphone, ipad oder Notebook, was natürlich extrem praktisch ist. Ein zusätzlicher großer Vorteil ist neben der Einsparung der Verkabelung, dass über eine LAN Verbindung wesentlich schneller Daten innerhalb des Netzes transportiert werden können. Wenn Sie zum Beispiel eine Netzwerkfestplatte haben und darüber Filme oder Musik streamen, haben sie eine spürbare besseren Datenstrom. Laut Anleitung ist die Einrichtung der d-LAN-Adapter relativ simpel, allerdings hatte ich Probleme, mein Kabelmodem damit zu verbinden. Ein Computerexperte, der mir empfohlen wurde und hier bei uns einen PC-Service anbietet, konnte mir das ausführlich erklären. Wenn man so wie ich nur ein Kabelmodem hat, kann darauf auch nur ein Computer gleichzeitig ins Netz. Aus diesem Grunde brauchte ich noch einen Router, der das Signal des Kabelmodems sozusagen aufteilt. Der Computerservice baute mir dann die Konfiguration zusammen. Das Kabel vom Kabelmodem wurde in den WAN-Port des Routers gesteckt und von einem der Ports für dein Kabel in den ersten d-LAN Adapter. Damit das Ganze funktioniert, muss man, nachdem man alles verkabelt hat, alles ausschalten und zuerst das Kabelmodem neu starten, dann den Router und dann nacheinander die Adapter. Mit dieser Konfiguration hat es auch auf Anhieb geklappt und wir haben im ganzen Haus ein stabiles Netzwerk. Ich kann die Alternative mit d-LAN nur jedem empfehlen.

Kartellamt weist Verleger-Beschwerde gegen Google ab (und wie)

Categories: Internet Business
Tags: ,
Comments: Comments Off
Published on: September 16, 2014

Die deutschen Verleger haben vom Kartellamt einen Korb bekommen, die Wettbewerbshüter haben eine Beschwerde gegen den Suchmaschinenriesen abgewiesen, ja abgeschmettert. Die VG Media, die das Leistungsschutzrecht abwickeln soll, argumentiere “nicht schlüssig” und soll zudem selbst kartellrechtlich aufpassen.

Klare Absage in Richtung VG Media

Wie die Online-Ausgabe der Frankfurter Allgemeine Zeitung (FAZ) schreibt (via @GillyBerlin), hat das Bundeskartellamt eine Verleger-Beschwerde zum Thema Leistungsschutzrecht (LSR) klar zurückgewiesen: Die Verleger hatten über ihre für die LSR-Durchsetzung gegründete VG Media einen Machtmissbrauch Googles moniert.

Das Suchmaschinenunternehmen hatte nach der Verabschiedung des Leistungsschutzrechts den Verlagen das “Angebot” gemacht, sich explizit mit der kostenlosen Nutzung ihrer Inhalte auf Google News einverstanden zu erklären oder aus dem Nachrichtenportal als Quelle gestrichen zu werden. Die meisten der (Print-)Verlage gingen darauf ein, gleichzeitig reichte die VG Media aber beim Kartellamt eine Beschwerde ein und wollte hier einen Machtmissbrauch Googles erkennen.

Die Wettbewerbshüter folgten den Argumenten laut FAZ aber nicht, ganz im Gegenteil, die Verlegerbeschwerde wurde regelrecht zerlegt. “Die Anknüpfungspunkte für ein eventuell kartellrechtsrelevantes Verhalten von Google beruhen teilweise nur auf Mutmaßungen”, so das Kartellamt, das auch zur Ansicht kam, dass das “eigentliche Beschwerdeziel unklar” sei. Insgesamt sei das Vorgehen der VG Media weder “schlüssig” noch “substantiiert.”

Das Kartellamt kam zur Auffassung, dass Google nicht verpflichtet sei, den Verlagen die “Snippets”, also kurzen Textauszüge, abzukaufen. Kartellamtspräsident Andreas Mundt sieht nicht einmal einen für ein Verfahren erforderlichen “hinreichenden Anfangsverdacht.”

Geht der Schuss nach hinten los?

Google wollen die Kartellwächter aber weiterhin beobachten und tätig werden, sollte Google etwa eine Seite komplett aus dem Index werfen (was aber faktisch ausgeschlossen werden kann). Interessant ist aber vor allem die Drohung des Kartellamtes in Richtung der Verleger: Denn man stellt sich die Frage, ob nicht auch die VG Media ein verbotenes Kartell sei und behält sich eine entsprechende Prüfung vor.

 

Webseite:

 

winfuture.de/

Ratgeber: Betriebssystem: Windows 7 und 8: Verschwundenen Papierkorb wiederherstellen

Categories: Computer Support
Comments: Comments Off
Published on: September 12, 2014
Vermissen Sie den Windows-Papierkorb, stellen Sie ihn im Nu wieder her. Das klappt auch mit Tuning-Software.
Der Papierkorb ist ein praktisches Werkzeug: Alle Dateien, die Sie löschen, landen zunächst in diesem Auffangbecken. Erst wer den Papierkorb explizit leert, löscht die darin gespeicherten Daten – sodass sie mit Bordmitteln nicht wiederzubeschaffen sind. Bei Bedarf stellen Sie versehentlich gelöschte Dateien mit wenigen Mausklicks wieder her. Fehlt das entsprechende Desktop-Symbol bei Ihnen, hat es jemand versehentlich oder absichtlich ausgeblendet. Es könnte auch eine Tuning-Software dafür verantwortlich sein.

Mithilfe des Fensters Desktopsymboleinstellungen zaubern Sie den Papierkorb wieder ans Tageslicht.

Das Wiederherstellen des Papierkorbs ist schnell erledigt: Klicken Sie mit der rechten Maustaste auf eine freie Stelle des Desktops. Nach einem Klick auf die Kontextmenü-Option Anpassen wählen Sie im sich öffnenden Fenster oben links Desktopsymbole ändern. Es öffnet sich ein weiteres Fenster. Indem Sie Häkchen vor den gelisteten Funktionen setzen, bringen Sie sie auf den Desktop. Stellen Sie sicher, dass vor Papierkorb ein Haken gesetzt ist. Mit Klicks auf Übernehmen und OKspeichern und verlassen Sie das Konfigurations-Fenster.

 

Alternative Vorgehensweise

Wer die TuneUp Utilities 2014 nutzt, stellt den Papierkorb mithilfe der Windows-Optimierungs-Software leicht wieder her. Unter Windows XP ist die Nutzung einer solchen Software die einzige Möglichkeit, einen fehlenden Papierkorb wiederzubeschaffen: Der Papierkorb ist unter XP zwar nicht per Einstelldialog ausblendbar, fehlt er aber, sind zur Problemlösung umständliche Eingriffe in die Registrierungs-Datenbank nötig. Nach dem Start von TuneUp 2014 wechseln Sie zur Kategorie Probleme beheben und klicken auf Symbol „Papierkorb“ wird nicht angezeigt. Nach zwei Klicks auf Weiter ist der Papierkorb zurück. Abschließend wählen Sie Fertig stellen.

In Internet-Foren kursieren einige falsche Tipps zum Wiederherstellen des Papierkorbs. Folgende Varianten funktionieren nicht: Im Startmenü nach der Funktion suchen und sie auf den Desktop ziehen, eine Datenrettungs-Software nutzen, unter XP nach einem Rechtsklick auf den Desktop Eigenschaften, Desktop, Desktop anpassen, Papierkorb sowie Wiederherstellenwählen. Mitunter empfehlen einige Foren-Nutzer, den Papierkorb nach dem Papierkorb zu durchsuchen – ein gleichermaßen nutzloser wie absurder Vorschlag.

Papierkorb im Papierkorb

Ist es überhaupt möglich, den Papierkorb in den Papierkorb zu verschieben? Nein – es ist nur vorgesehen, ihn durch das Entfernen eines Häkchens unsichtbar zu machen. Etwas anders sieht das mit Verknüpfungen des Verzeichnisses aus: Die können Sie tatsächlich in den virtuellen Mülleimer befördern. Fehlt der originale Papierkorb, klappt die Wiederstellung mithilfe solcher Verknüpfungen aber nicht, da er dort nach dem Ausblenden nicht auftaucht.

 
 
Homepage besuchen:

IDC korrigiert PC-Prognose nach oben

Comments: Comments Off
Published on: September 12, 2014

Die Marktforscher von IDC haben ihre Zahlen zum weltweiten PC-Markt im Jahr 2014 korrigiert. Sie erwarten zwar immer noch einen Rückgang der Verkäufe von Notebooks und Desktop-PCs gegenüber dem Vorjahr, er wird aber weniger drastisch ausfallen als befürchtet. Konkret ist von 303 Millionen übers Jahr verkauften Einheiten die Rede.

 

Im Vorjahr waren 315 Millionen PCs verkauft worden. Das bedeutet einen Rückgang um 3,7 Prozent. Zuvor war IDC von 6 Prozent Rückgang ausgegangen.

Weiterhin sind es vor allem Firmen, die PCs kaufen. IDC zufolge sind das Support-Ende für Windows XP, die große Nachfrage nach Chromebooks im Bildungsbereich und weniger Wettbewerb durch große Tablets die wichtigsten Faktoren hinter der leichten Besserung. Analyst Jay Chou kommentiert: “Programme zur Senkung der PC-Preise wie Windows 8.1 mit Bing haben ebenfalls für mehr PC-Absätze in einigen Segmenten geführt.”

Der Analyst beobachtet zudem eine allgemeine Hinwendung zu Mobil-PCs, schnellere Innovationen und eine Konzentration auf Preispunkte. “Trotzdem gibt es nur schwache Aussichten auf langfristig signifikantes PC-Wachstum, da die Anwender PCs immer mehr als nur eines von mehreren Computing-Geräten sehen.”

 

Im kommenden Jahr könnte der Markt immerhin von der Einführung von Windows 9 “Threshold” im Frühjahr profitieren. So lange seine Vorteile gegenüber Windows 8 nicht klar seien, könne man seine möglichen Auswirkungen auf den Markt aber nicht abschätzen, erklärt IDC. Bekannt ist vor allem, dass Windows 9 sich leichter mit Maus und Tastatur bedienen lassen wird als das Touch-optimierte Windows 8.

Vorerst prognostiziert IDC fürs kommende Jahr 291 Millionen verkaufte PCs. Die negative Wachstumsrate des Markts wird sich seiner Auffassung nach abschwächen.

Vor drei Wochen hatte IDC schon seine Jahresprognose für den weltweiten IT-Markt erhöht. Das Gesamtjahreswachstum wird währungsbereinigt 4,5 Prozent betragen. Ohne Smartphones wären es nur plus 3,1 Prozent. Heimanwender und Firmen ersetzen in unerwartetem Umfang ältere PCs und Notebooks. Das geht vorläufig zu Lasten des Tabletmarkts.

Gartner hingegen meldete im Juli erstmals seit zwei Jahren ein leichtes Wachstum des PC-Markts: Die Verkaufszahlen legten um 0,1 Prozent auf 75,8 Millionen Einheiten zu. Regionen wie EMEA und USA erzielten mit 8,6 beziehungsweise 7,4 Prozent sogar ein deutliches Plus. Lenovo vergrößerte seinen Vorsprung vor dem ehemaligen Marktführer Hewlett-Packard. Das Analystenhaus geht zudem davon aus, dass sich die Chromebook-Verkäufe bis 2017 nahezu verdreifachen werden.

[mit Material von Steven Musil, News.com]

 

 

externer Link zum Artikel:

http://www.zdnet.de/88203855/idc-korrigiert-pc-prognose-nach-oben/

Suchmaschinenoptimierung richtig einsetzen

Categories: SEO
Tags: ,
Comments: Comments Off
Published on: September 10, 2014

Fast überall hört man heutzutage von der Suchmaschinenoptimierung oder kurz SEO für Search Engine Optimization. Doch was bedeutet das? Warum ist SEO so wichtig und wieso haben es kleinere Shops oft einen Nachteil gegenüber der größeren im Bezug zur Suchmaschinenoptimierung? Diese Fragen werden nun geklärt und Suchmaschinenoptimierung Berlin hilft dabei das Suchmaschinenranking, zu optimieren.

Warum benötigt man Professionelle Suchmaschinenoptimierung?

Die eigene Internetpräsenz jeder Firma gehört in der jetzigen Zeit zum guten Ton und nicht nur das sie ist zudem unerlässlich. Die eigene Homepage dient als Aushängeschild des Unternehmens auf der sich Bestandskunden und auch potenzielle neue Kunden Informationen einholen über die Firma, das Produkt oder das Projekt. Dieses Aushängeschild soll von möglichst vielen Menschen möglichst oft gesehen und vor allem gefunden werden. Hier kommt die Professionelle Suchmaschinenoptimierung ins Spiel, denn dank dieser Maßnahmen wird der Webseite beispielsweise von Suchmaschinenoptimierung Berlin geholfen auf den vordersten Plätzen der unterschiedlichen Suchmaschinen zu erscheinen, und somit besser von den Nutzern gefunden zu werden. Den Ort, wo Webseiten am meisten wahrgenommen und geklickt werden. Dies wiederum bedeutet mehr Erfolg im Internet.

Was haben die großen Firmen, was die Kleinen nicht haben?

Viele kleine Händler folgen dem Irrtum, dass viele Produkte im Shop einen hohen Traffic generieren. Aber auch für kleine Online-Shops ist die professionelle Suchmaschinenoptimierung ein unerlässliches Werbemittel, in das es sich zu investieren lohnt. So ist es ziemlich unwahrscheinlich das ein Shop in den oberen Ergebnissen auftaucht, wenn Produktbeschreibungen komplett fehlen, so wie es meist bei kleinen Shops der Fall ist. Große Firmen haben erkannt das eine hohe Wortdichte mit viel hochwertig verfassten Unique Content nötig ist. Werden Artikelbeschreibungen kopiert oder diese verwendet die an alle Shops ausgegeben werden, wird das Unternehmen von den Suchmaschinen als minderwertig eingestuft. Besitzt man als kleineres Unternehmen nicht die Mittel eine Firma für Professionelle Suchmaschinenoptimierung zu engagieren, können den Shop bereits wenige eigene geschriebene Seiten etwas nach vorne bringen. Suchmaschinenoptimierung Berlin kann kleinen Händlern dabei helfen, den Sprung nach oben zu schaffen. Da viele potenzielle Käufer vor dem Kauf echte Kundenbewertungen lesen, ist es durchaus angebracht, auch diese in der Webseite mit einzubringen. Der Vorteil daran ist der kostenlose Unique Content auf einer lebendigen Seite, die aktuell bleibt und im Suchmaschinen-Ranking immer wieder nach oben rutscht. Genau das haben große Shops bereits erkannt und zum Beispiel die Suchmaschinenoptimierung Berlin genutzt.

Intel Core i7-5960X im Test: Die PC-Revolution beginnt mit Octacore und DDR4

Categories: Hardware
Tags: ,
Comments: Comments Off
Published on: September 10, 2014

Intel Core i7-5960X im Test

Intels neues Topmodell für Desktop-PCs, kleine Workstations und Übertakter startet früher als erwartet – und ist mit alter Software manchmal langsamer als der Vorgänger. Für Profis kann sich der Prozessor Core i7-5960X dennoch lohnen.

Diesmal gibt es nicht wenige, sondern gar keine Aufrüstmöglichkeiten: Wer Intels neue Serie Core-i7-5900/5800 nutzen will, braucht eine neue CPU, ein neues Mainboard und neuen Speicher. Das schreckt zunächst ab, ist aber logisch. Der hier getestete Core i7-5960X basiert wie alle Extreme-CPUs der vergangenen Jahre auf Server-Technik, genauer dem ebenfalls bald erwarteten Haswell-EP, der als Xeon 2600 v3 erscheinen wird.

Diese neuen Xeons bringen eine Generalüberholung der gesamten Infrastruktur mit sich, sodass sich auch beim Haswell-E 5960X zahlreiche Änderungen ergeben. Da die Produkte bei Servern und Workstations mehrere Jahre aktuell bleiben, dürfte Intel auch die neue Plattform entsprechend lange pflegen.

Das zeigt sich schon am neuen Sockel LGA 2011-v3, der nur mechanisch gleich bleibt. Selbst alte Kühler, die vor drei Jahren für Sandy Bridge-E (Core-i7-3900) angeschafft wurden, passen also noch. Dennoch sind neue Mainboards nötig, denn die 2011 Kontakte sind anders beschaltet. Das ist dem DDR4-Speicher geschuldet, für den Haswell-E wie gehabt vier Speicherkanäle mitbringt.

DDR4 ist eine direkte Anforderung von Server- und Supercomputerherstellern, die sich laut Intel vor allem mehr Bandbreite wünschen, selbst wenn dafür die Latenzen steigen. Da bei solchen Anwendungen vor allem große Programme und Daten bearbeitet werden, ist die effektive Bandbreite des Hauptspeichers wichtiger als bei kleinen Desktop-Anwendungen. Andere Techniken wie höchstens 40 PCI-Express-Lanes in Version 3.0 und weitere Schnittstellen blieben weitgehend unverändert.

Wichtigste Neuerung sind die acht Kerne, die per HyperThreading 16 Threads parallel verarbeiten können. Nach Intels Lesart ist der 5960X die erste Achtkern-CPU des Unternehmens für Desktop-PCs. Das stimmt nur soweit, wie man nur Core-CPUs und kleinere Modelle als für den Desktop geeignet ansehen mag. Findige Bastler setzen aber schon seit Jahren auch Xeons in günstigen Desktop-Boards ein. Dabei bezahlt man aber stets meist nicht genutzte Funktionen wie die Eignung für ECC-Speicher und die Fernwartung vPro mit – beides unterstützt auch der 5960X nicht. Auch von AMD gibt es seit den ersten Bulldozer-FX-CPUs acht Kerne, wobei aber nur acht Integer-Einheiten vorhanden sind und halb so viele FPU- und SIMD-Rechenwerke.

Der entscheidende Unterschied zu den Xeons sind bei den neuen Core-CPUs die offenen Multiplikatoren sowie weitere Übertaktungsfunktionen. Da sich die Strukturbreite von 22 Nanometern gegenüber Ivy Bridge-E nicht geändert hat, bedingen die beiden zusätzlichen Kerne und der von 15 auf 20 MByte vergrößerte L3-Cache insgesamt bis zu 2,6 Milliarden Transistoren und eine höhere Leistungsaufnahme. Statt 130 Watt TDP sind nun 140 Watt abzuführen, was aber mit guten Luftkühlern noch möglich ist. Damit das klappt, mussten die Taktfrequenzen gesenkt werden.

Mehr Kerne, mehr Cache, weniger Takt

Während der erst vor einem Jahr erschienene Core i7-4960X (Ivy Bridge-E) mit seinen sechs Kernen noch einen Basis- und Turbotakt von 3,6 und 4,0 GHz erreichte, kommt der Core i7-5960X nur auf 3,0 und 3,5 GHz. Mehr Leistung kann er also nur dann erreichen, wenn seine um ein Drittel höhere Zahl an Kernen von der Software auch genutzt wird. Dabei gilt es aber noch die kürzlich von Golem.de ausführlich beschriebenen Eigenheiten der Turbos zu beachten.

Der Basistakt ist bei Intel-CPUs nur die Frequenz, welche die Kerne unter den ungünstigsten Bedingungen mindestens erreichen. In der Praxis liegt auch bei voll in Threads aufgeteilten Programmen wie Cinema4D bei stundenlanger Last der Takt höher – und zwar beim 5960X prozentual gesehen noch höher, als beim 4960X.

Intel gibt einen Turbo-Takt von 3,3 GHz bei Belastung aller Kerne für den 5960X an, den die CPU in unserem Test auch stets erreichte. Das liegt drei Multiplikatorstufen über dem Basistakt. Beim 4960X ist es nur eine, da diese CPU aber dann mit 3,7 GHz läuft, ist sie mit schlecht in Threads aufgeteilten oder gar Single-Thread-Programmen dennoch schneller als der Nachfolger. Wohl daher ist anders als früher befürchtet der 5960X auch nicht teurer als der 4960X, für beide Prozessoren gilt der Großhandelspreis von 999 US-Dollar zuzüglich Steuern.

Da es jetzt ein Drittel mehr Kerne gibt, wurde auch der L3-Cache um ein Drittel aufgestockt, und zwar von 15 auf 20 MByte. Im Verhältnis wurde der schnelle Zwischenspeicher bei den beiden Sechskernmodellen 5930K und 5820K mit 15 MByte sogar überproportional größer, für den Hexacore 4930K gab es nur 12 MByte. Einen Quad-Core wie den 4820K bietet Intel mit der Serie Haswell-E nicht mehr an, seinen Platz übernimmt der 4790K.

Wer sich mit dem 5960X besonders große Systeme mit mehr als zwei Grafikkarten bauen will, stößt an eine schon von seinem Vorgänger bekannte Grenze: Es sind nur 40 PCIe-Lanes in Version 3.0 vorhanden. Das reicht für zwei Grafikkarten mit x16-Anbindung, eine dritte bekommt nur noch 8 Lanes. Bei vier Karten müssen sich drei mit x8-Anbindung begnügen. Bei Spielen reduziert das die Leistung kaum, bei Rechenanwendungen für GPUs kann das aber zum Flaschenhals werden.

Dazu kommt noch, dass mit M.2-SSDs nun eine weitere Komponente zum Nachrüsten existiert, die im Idealfall mit vier PCIe-Lanes angebunden werden sollte. Das hat auch Asus mit dem zum Test verwendeten Highend-Mainboard Rampage V Extreme recht kompromisslos umgesetzt: Wenn sich im vierten PCIe-Slot eine Karte befindet, wird die M.2-Schnittstelle abgeschaltet. Dank Dual-GPU-Karten lassen sich aber dennoch vier Grafikprozessoren und eine M.2-SSD verwenden, alternativ gibt es an diesem Mainboard auch zwei Sata-Express-Schnittstellen, wenn vier Grafikkarten verwendet werden sollen.

Die Zahl der PCIe-Lanes ließ Intel auch bei den beiden kleineren Haswell-E unverändert, der 5930K besitzt 40 Leitungen und der 5820K nur 28. Mit dem kleinsten der neuen Prozessoren lassen sich also nicht einmal mehr zwei Grafikkarten mit voller Bandbreite ansteuern, das war beim 4820K mit 40 Lanes noch anders. Dennoch reichen die PCI-Express-Anbindungen für mehr Erweiterungen als bei den Quad-Cores der Serie Core-i-4000, denn dort sind bei allen Prozessoren höchstens 16 Lanes vorhanden. Die PCIe-Lanes die direkt im Root-Complex des Prozessors sitzen, stehen exklusiv für Steckkarten zur Verfügung, alle anderen Schnittstellen des X99-Chipsatzes inklusive 8 PCIe-Lanes in Version 2.0 stellt dieser selbst zur Verfügung.

Sparsamer X99-Chipsatz und DDR4-Speicher

Traditionell gelten die X-Chipsätze für Intels Highend-Plattformen als Stromverschwender – das hat sich mit dem X99 endlich geändert. Zwar gibt Intel gegenüber dem Vorgänger X79 – ein X89 erschien nie – nur eine Senkung der TDP von 7,8 auf 7 Watt an. Die Strukturbreite wurde aber von 65 auf 32 Nanometer verkleinert, sodass der TDP-Wert wohl nur symbolisch ist, damit die Mainboardhersteller nicht viel zu kleine Kühler verbauen. Da kaum noch Zusatzchips nötig sind, kann die gesamte Plattform viel weniger Energie als bei Sandy Bridge-E und Ivy Bridge-E aufnehmen.

So gibt es nun endlich auch in der Extreme-Serie native Unterstützung für USB 3.0, und zwar gleich für sechs Ports. Wenn mehr Anschlüsse wie beim Asus Rampage V vorhanden sind, arbeiten weiterhin andere USB-Controller auf dem Mainboard – wer sie nicht braucht, kann sie im UEFI abschalten. Zusätzlich gibt es durch den Chipsatz auch bis zu acht USB-2.0-Ports.

Mit zehn Sata-Anschlüssen mit 6 GBit/s stellt der X99 auch so viele Schnittstellen für Massenspeicher zur Verfügung, dass sich damit größere Desktop-RAIDs realisieren lassen. Für Selbstbau-Server sind aber zusätzliche Ethernet-Schnittstellen nötig, nur einen Gigabit-Port kann der Chipsatz direkt anbinden. M.2-Slots sieht Intel nicht direkt vor, sie können aber über die PCIe-Lanes des Prozessors zur Verfügung gestellt werden.

Sparsamkeit ist auch beim neuen Speichertyp DDR4 angesagt. Statt minimal 1,35 Volt bei DDR3 sind DDR4-DIMMs von Anfang an auf 1,2 Volt ausgelegt. Die Speicherchips mit ihren immer kleineren Strukturen von derzeit unter 30 Nanometern machen das eigentlich schon länger mit, nur waren die Adressierungsverfahren und die Busprotokolle für das inzwischen 15 Jahre alte Prinzip von DDR-Speichern kaum geeignet.

Folglich arbeitete das Normierungsgremium JEDEC schon seit über drei Jahren daran, die Organisation der DRAMs und der physikalischen Busse möglichst gleich zu lassen und die Übertragung dennoch schneller zu machen. Alles andere hätte völlige Neukonstruktionen von Speichercontrollern und Mainboards bedeutet. Geeinigt hat man sich schließlich auf neue Protokolle, die Gruppierung in internen Bänken – nicht zu verwechseln mit den üblichen Banks – und mehr parallele Zugriffe durch ein erweitertes Prefetching. Damit die Signalqualität erhalten bleibt, kann der Bus dynamisch invertiert werden.

All das geht mit heutigen Speicherchips zu Lasten der Latenz. Die günstigsten der im Vergleich zu DDR3 ohnehin noch teuren DDR4-Module haben ein CAS-Latency von 17, ein Wert, den auch billigste DDR3-Speicher leicht unterbieten. Ausgeglichen wird das durch einen höheren Takt. Wo effektiv 2.133 MHz bei DDR3 schon zu den besseren Übertakter-Modulen zählen, ist das bei DDR4 die Einstiegsfrequenz – zumindest bei den bisher verfügbaren Modulen.

Allerdings ist DDR4-2133 auch der höchste Wert, den die JEDEC spezifiziert hat, es gibt aber auch schon Module mit 2.800 MHz, und 3.000 MHz sind angekündigt, aber noch kaum verfügbar. Damit die Mainboards die richtigen Timings einstellen, hat Intel sein Extreme Memory Profile (XMP) in Version 2.0 neu aufgelegt – ein Sprung von der bisherigen Version 1.3, die für DDR3 weiterhin gültig ist.

Für den bisherigen Speicher gibt es zwar schon länger auch Module mit effektiv 3.000 MHz und mehr, sodass der Vorteil von DDR4 sich erst langfristig zeigen muss. Er liegt, weil durch Server-Technik getrieben, vor allem in mehr Speicher bei nicht überproportional steigender Leistungsaufnahme. Das zeigte sich schon auf der Computex 2014, als Mainboardhersteller 128 GByte für Haswell-E empfahlen – Intel sieht nur 64 GByte vor.

Äußerlich unterscheiden sich die die neuen Module durch 288 statt 240 Kontakte, dabei sind sie an der Kontaktseite unverändert 134 Millimeter breit. Damit die höhere Dichte der Anschlüsse sicher in den Slot findet, stehen die mittleren Kontakte bei DDR4-Modulen etwas hervor, was mehr Aufwand bei der Fertigung der Platinen bedeutet. Mechanisch passen durch eine verschobene Einkerbung DDR3-Module nicht in DDR4-Slots und umgekehrt. Irrtümliches Einstecken ins falsche Board ist so ausgeschlossen.

Testsysteme und Verfahren

Wir testen für die Benchmarks ein Vorserienexemplar (ES) des Core i7-5960X auf dem Asus-Mainboard Rampage V Extreme aus der ROG-Serie. Es bietet nicht nur den Intel-Sockel 2011-v3, sondern eine Sonderversion, die zum Übertakten mehr Pins der CPU ansteuert, wie unsere Kollegen von PC Games Hardware herausgefunden haben. In unserem Technologievergleich der Plattformen von 2013 und 2014 laufen die Systeme aber innerhalb ihrer Werkseinstellungen.

Da Intel zum ersten Mal seit über drei Jahren die Zahl der Kerne für Desktop-PCs wieder erhöht hat, aber den Takt senkte, konzentrieren wir uns auf den Vergleich von 4960X, 5960X und dem 4770K als erstem Haswell-Quadcore.

Die Messungen der beiden Extreme-CPUs erfolgen sowohl mit dem für die anderen Prozessoren verwendeten Netzteil Dark Power Pro von Be Quiet mit 850 Watt Nennleistung als auch mit dem recht sparsamen und neueren Straight Power desselben Herstellers mit 400 Watt und 80+-Gold-Zertifizierung. Dabei wurde die für die grafiklastigen Tests verwendete Radeon HD 7870 durch eine Radeon HD 6450 ersetzt, die für den Windows-Desktop nur 7 Watt benötigt. Dafür gibt es eigene Diagramme, die nur die Leistungsaufnahme von Intels Extreme-Editions vergleichen. Als Treiber kommt der WHQL-zertifizierte Catalyst 14.4 zum Einsatz. Die Zusatzchips der Mainboards und andere Erweiterungen wie WLAN-Adapter oder LED-Beleuchtungen schalten wir ab.

Intels bisherige Sechskerner laufen auf dem MSI-Mainboard X79A-GD65 8D mit X79-Chipsatz, dort verwenden wir 16 GByte DDR3-2133-Speicher mit den Timings 11-12-12-31. Das ist für Vergleichbarkeit wichtig, weil effektiv 2.133 MHz bisher die kleinste Taktfrequenz für verfügbare DDR4-Module sind. Dort betragen die Timings 15-15-15-35. Die gleichen DDR3-Speicher wie für die Hexacores stecken wir auch in das Z87-Deluxe von Asus, in dem der 4770K vermessen wird.

Alle Anwendungen und Daten kommen von einer Intel-SSD der Serie 520 mit 240 GByte Kapazität, von denen wir 24 GByte für besseres Wear-Levelling unpartitioniert lassen. Die Messungen finden unter Windows 7 Ultimate in der 64-Bit-Version statt, da wir wissen, dass dieses Betriebssystem auch bei den Lesern von Golem.de noch die am weitesten verbreitete Windows-Version und für Benchmarks zuverlässiger ist. Wo möglich, verwenden wir die 64-Bit-Versionen der Anwendungen.

Synthetische Benchmarks zeigen Single-Thread-Schwäche

Acht gegen sechs Kerne lautet das Duell beim Vergleich von 4960X und 5960X. Beim Vergleich der beiden Sechskerner 3960X und 4960X ergaben sich durch die Architekturverbesserungen und den gering gesteigerten Takt 7 bis 10 Prozent mehr Rechenleistung. Intels Ziel ist es, mit jedem neuen CPU-Design, wozu auch Haswell zählt, rund 10 Prozent mehr zu erreichen. Beim 5960X ist dafür der Takt geringer als bei seinem Vorgänger – das kann sich bei Single-Thread-Anwendungen trotz der Architekturvorteile negativ auswirken. Werden jedoch alle Cores voll ausgelastet, sind in der Theorie rund 30 Prozent mehr Leistung zu erzielen.

Das zeigen auch Cinebench R11.5 und R15, die mit Takt und Kernzahl nahezu perfekt skalieren: Der 5960X ist fast ein Drittel schneller als der 4960X, alle anderen CPUs sind abgeschlagen. Bei beiden Programmen lässt sich auch nur ein Kern nutzen, dann ist der 4960X durch seinen Taktvorteil gleichauf. Um die Leistung pro Takt zu bewerten haben wir beide CPUs auch mit einem festen Multiplikator von 30 auf 3,0 GHz eingestellt und Cinebench R15 neu vermessen. Durch zwei Kerne mehr gewinnt dann auch der 5960X.

Das ist auch bei Nutzung von nur einem Core der Fall, allerdings fällt das Ergebnis mit 108 gegenüber 110 Punkten zu Gunsten des 5960X äußerst knapp aus. Immerhin kann der Haswell-E hier seinen Architekturvorteil und den größeren L3-Cache offenbar noch ausspielen. Zudem bleibt Cinebench lange Zeit auf dem selben Kern, was bei älteren Anwendungen nicht der Fall ist.

Ein Extrembeispiel für ein Programm, das ständig die Kerne wechselt – was die CPU intern unter anderem durch Cache-Flushes durcheinanderbringt – ist SuperPi Mod XS 1.5. Wenn wir damit die Kreiszahl auf 4 Millionen Nachkommastallen berechnen, braucht der 5960X über zwei Sekunden länger als der 4960X. Der höhere Turbotakt des Ivy Bridge-E bringt hier den Vorteil, SuperPi ist so klein, dass der größere L3-Cache nicht ins Gewicht fällt. Wenn also noch sehr alte Single-Thread-Anwendungen eingesetzt werden müssen, sollte man durch eigene Tests prüfen, ob sich die neue CPU lohnt. Dann kann auch ein viel billigerer Quad-Core wie der 4790K mit 4,4 GHz bei Belastung eines Kerns schneller sein.

Bei Multithreading-Anwendungen schlägt die um ein Drittel erhöhte Kernzahl aber in der Regel zu, wenn sich die Programme nicht durch die für Desktops ungewohnt hohe Zahl von 16 Threads verwirren lassen.

Medienbearbeitung und Kompression

Selbst wenn ein Programm die acht Kerne und 16 Threads nutzt, kann es auf dem 5960X nicht automatisch schneller sein als beim 4960X. Das ist beispielsweise bei Lightroom der Fall, womit wir 257 Raw-Dateien in LZW-komprimierte TIFFs konvertieren. Dabei lastet das Adobe-Programm die Kerne ungleichmäßig aus, sodass der 5960X leicht langsamer als der 4960X ist. Das heißt nicht, dass die neue CPU sich nicht für Bildbearbeitung eignet. In nicht bewerteten Vergleichen mit Photoshop-Filtern wie Nik Dfine und Color Efex zeigte sich eine gleichmäßige Auslastung.

Ebenfalls langsamer kann der Haswell-E sein, wenn mit Winrar in der 64-Bit-Version die gleichen Raw-Dateien mit normaler Kompression in ein Rar-Archiv verpackt werden sollen. Wenn die gleiche SSD verwendet wird, ist der 4960X durch seinen höheren Turbo-Takt etwas schneller fertig. Wenn solche Aufgaben häufig anstehen, reicht aber schon die Erhöhung um zwei Multiplikatorstufen um den Nachteil auszugleichen. Das ist zwar eine moderate Übertaktung, viele professionelle Anwender schrecken aber vor solchen Eingriffen für ein Produktivsystem noch immer zurück.

Wir haben außerhalb der bewerteten Tests den Rechner sowohl bei der Konvertierung wie auch der Kompression praxisnah genutzt. Dabei fiel auf, dass der Start großer Programme wie Cinema4D oder der Aufruf komplexer Webseiten spürbar schneller abliefen. Genau messbar sind solche Vorteile von einigen Sekunden kaum, es geht eher um einen psychologischen Vorteil: Auch Aufgaben, die ältere Systeme voll auslasteten und unbenutzbar machen, sind nun kein Hindernis mehr, das von anderen Arbeiten abhält.

Wenn nicht gerade alle Kerne unter voller Last stehen, wie das etwa beim Rendering mit Cinema4D der Fall ist, reagiert ein Rechner mit dem Core i7-5960X fixer auf Eingaben und den Start anderer Anwendungen. Es sind stets vier Threads mehr verfügbar als beim 4960X, auf welche das Betriebssystem die Aufgaben verteilen kann.

Für Medienschaffende ist es aber unabdingbar, vor der Anschaffung einer Achtkern-CPU beim Hersteller der meistgenutzten Anwendungen nachzufragen, wie viele Threads von diesen tatsächlich genutzt werden. Da schon acht Threads durch Quad-Cores mit Hyperthreading seit Jahren üblich sind, sollten moderne Programme auch das doppelte nutzen können – denn Achtkerner sind durch die Xeons und AMDs FX-CPUs auch nicht brandneu, mit Intels neuem Haswell-E dürfte die Verbreitung noch etwas zunehmen.

Zahlreiche weitere Benchmarks des 5960X, vor allem mit Spielen, finden sich bei unseren Kollegen der PC Games Hardware, die auch das kleinere Modell 5820K vermessen haben. Den 5960X konnten sie auf bis zu 4,7 GHz übertakten, was aber eine Leistungsaufnahme für das Gesamtsystem von 271 Watt zur Folge hatte.

Rendertests mit über 27 Stunden

Wenn von Multicore-CPUs wie dem 5960X die Rede ist, fällt vielen Anwendern als Paradedisziplin der Videoschnitt ein – das ist aber nicht unbedingt die Programmkategorie, bei denen die Vielkerner ihren Vorteil voll ausspielen können. Noch besser ist 3D-Animation geeignet.

Um zu zeigen, wie sich mehr Kerne in der Praxis der Mediengestaltung auswirken, berechnen wir daher mit Cinema4D R15 ein echtes Projekt. Es wurde uns von dem freischaffenden Fotografen und Filmer Andreas Brauner zur Verfügung gestellt. Anders als beim Cinebench R15 werden damit die Einzelbilder eines 30-Sekunden-Films mit 25 fps berechnet. Dabei entstehen pro Sekunde aber nicht 25 Bilder, sondern 250.

Für die Weiterverarbeitung werden nämlich neben den Bildern der Objekte auch Beleuchtung und Effekte in einzelnen TIFF-Dateien gespeichert, die später in einem Compositing-Programm in Ebenen zusammengefügt werden. Dadurch muss etwa für eine Abdunklung einer einzelnen Szene nicht der gesamte Film neu gerendert werden. Der Rechenaufwand für die Bilder ist enorm: Auf einem Core i7-4770K braucht die Erstellung von 30 Sekunden Animation über 27,5 Stunden Renderzeit.

Da Cinema4D mehr Kerne stets nutzt, sinkt dieser Zeitaufwand mit dem 4960X und erst recht dem 5960X deutlich. Mit Ivy Bridge-E und sechs Cores sind nur noch 20 Stunden und 23 Minuten nötig, was den Arbeitsablauf bei der Produktion entscheidend beeinflussen kann: Das Rendering kann am Abend eines Arbeitstages gestartet werden und ist am Nachmittag des nächsten Tages fertig. Dann können noch Anpassungen vorgenommen werden, und wiederum einen Tag später liegt das hoffentlich korrekte Ergebnis vor. Mit 27,5 Stunden verschieben sich die Arbeiten, sofern nicht Nachtschichten eingelegt werden, immer um einen Tag mehr.

Mit dem 5960X ist der Film bereits nach 14 Stunden und 40 Minuten fertig, was noch mehr Spielraum für Überarbeitungen erlaubt, weil nicht einmal mehr einen Arbeitstag, inklusive der Nacht, gewartet werden muss. Wer das Rendering um 19 Uhr startet, kann am nächsten Morgen um 10 Uhr das Ergebnis überprüfen, und beispielsweise nach einer Konferenz mit Mitarbeitern schon mittags einen neuen Durchlauf starten.

Alle Plattformen, sowohl mit 4770K wie 4960X und 5960X liefen bei unseren Rendertests trotz 16 GByte Speicher mit je vier Modulen auch bei mehreren Durchläufen vollkommen stabil. Dass für tagelanges Rechnen also unbedingt ECC-Speicher nötig ist, scheint zumindest für Cinema4D nicht zuzutreffen.

Leistungsaufnahme mit deutlich höherer Effizienz

Allein an der TDP lässt sich der Energiebedarf moderner Prozessoren nicht beurteilen. Sie ist eine technische Angabe für PC-Hersteller, nicht das, was der Rechner ständig an Leistung aufnimmt. Beim 5960X zeigt sich das deutlich: Die TDP für die CPU allein ist mit 140 Watt angegeben, dennoch nimmt unsere Testplattform mit sparsamem Netzteil nur 146 Watt unter Last auf allen Kernen auf. Das gilt für ein sparsames 400-Watt-Netzteil. Soll für mehrere Grafikkarten ein 850-Watt-Modell genutzt werden, sind es unserem Fall 158 Watt.

Bei ruhendem Windows-Desktop ist die Leistungsaufnahme in einem effizienten PC auf 38 Watt zu drücken, mit weniger sparsamem Netzteil sind es noch 44 Watt. Alle Idle-Werte liegen deutlich unter denen des 4960X, unter Last benötigt der 5960X-PC aber im besten Fall 146 statt 136 Watt wie beim 4960X-System. Da dabei jedoch für rund 30 Prozent mehr Rechenleistung nur gut 7 Prozent mehr Energie aufgewendet werden müssen, ist der Haswell-E dennoch der deutlich effizientere Prozessor.

Nun vom 4960X umzusteigen, dürfte sich aber rein aus Gründen der Energieeinsparung kaum lohnen, selbst wenn um den 5960X herum eine Maschine gebaut werden soll, die stets unter Volllast steht. Bis die rund 1.500 Euro für CPU, Mainboard und RAM an Stromkosten eingepart sind, ist die Plattform längst veraltet.

Bei allen Betrachtungen der Leistungsaufnahme von Highend-CPUs ist neben dem Netzteil das Mainboard entscheidend. Unser verwendetes Rampage V von Asus ist auf Overclocking, nicht Effizienz getrimmt. Die große E-ATX-Platine bedingt allein schon längere Leitungen. Dass sich damit dennoch geringere Idle-Werte als beim 4960X ergeben, den wir auf einem recht sparsamen MSI-Mainboard gemessen haben, beeindruckt umso mehr. Auf beiden Boards haben wir alle Zusatzchips, Funkmodule und die LED-Beleuchtung für diese Messungen abgeschaltet. Mit all diesem Zubehör nimmt das Rampage V rund 10 Watt mehr auf.

Mit kleineren Mainboards und noch effizienterem Netzteil – unser Be Quiet ist nach 80 Plus Gold zertifiziert – sollten auch Haswell-E-Systeme zu machen sein, die an der 30-Watt-Grenze kratzen. Für eine komplett neue Plattform ist das eindrucksvoll, insbesondere die Hersteller von kleinen Workstations sollten diese Vorteile durch sorgfältige Konfiguration nutzen.

Fazit

Der Core i7-5960X markiert einen Umbruch. Intel setzt konsequent auf mehr Kerne, auch wenn der Takt dafür etwas geringer ausfällt. Ohne Übertaktung ist die Achtkern-Plattform bei geringer Last sogar sparsamer als die Sechskern-Vorgänger. Haben alle Cores viel zu tun, rechtfertigt die Mehrleistung die gering erhöhte Leistungsaufnahme völlig. Ein effizientes Netzteil ist dafür die Voraussetzung.

Auch wenn ein Drittel mehr Kerne für Medienschaffende, welche die Kosten einer Xeon-Workstation scheuen, zunächst verlockend scheinen, will ein Umstieg dennoch gut überlegt sein. Ein neues Mainboard und neuer Speicher sind neben der CPU in jedem Fall zu bezahlen – da war der unveränderte Preis der Highend-CPU für Intel fast schon Pflicht. Soll für Medienbearbeitung ohnehin ein komplett neuer Rechner angeschafft werden, weil der alte noch genutzt wird, ist der 5960X die bessere Wahl als der 4960X.

Das gilt vor allem, wenn Zukunftssicherheit wichtig ist. Da die entsprechenden Xeon-CPUs demnächst erst erscheinen, dürfte Intel die neue Plattform einige Jahre mit neuen Produkten pflegen. Das ist bei der Serie 4900 nun nicht mehr zu erwarten. Wer einen Rechner damit noch aufrüsten oder von 3900 auf 4900 umsteigen will, sollte das bald tun, denn irgendwann werden die älteren CPUs als Neuware rar und teuer. Ein aktuelles gutes Beispiel noch für X79-Boards ist der Xeon E5-2650 v2 mit acht Kernen bei 2,6 bis 3,4 GHz. Dafür muss das Board aber eine passende Firmware besitzen. Übertakter, die sich ihr Technikspielzeug etwas kosten lassen, haben ohnehin kaum eine Wahl als den 5960X, denn andere Achtkerner mit offenem Multiplikator gibt es sonst in diesen Leistungsdimensionen nicht.

Dass beim Start einer neuen Speichergeneration wie jetzt mit DDR4 die Produktauswahl so groß ist, stellt ebenfalls ein Novum dar. Da aber bisher fast ausnahmslos auf Overclocker zugeschnittene Module erhältlich sind, sind die Preise entsprechend hoch. Schon in einigen Wochen dürfte sich das ändern, wenn die DIMMs für Xeons verfügbar werden – dann ist auch viel Speicher zu Preisen von DDR3 zu erwarten.  (nie)

 

Original:

http://www.golem.de

Neues – Apple will mit großer Show zurück auf den Innovations-Olymp

Categories: Apple
Tags: , ,
Comments: Comments Off
Published on: September 9, 2014

Neue größere iPhones, ein Handy-Bezahlsystem, die seit langem erwartete Computeruhr – wenn die Gerüchte stimmen, steht Apple vor einem großen Sprung. Für Konzernchef Tim Cook schlägt mit der Präsentation am nächsten Dienstag die Stunde der Wahrheit: Es werden die ersten Geräte gezeigt, die komplett in seiner Zeit an der Apple-Spitze entwickelt wurden.

In den Fußstapfen von Steve Jobs

Vor allem an der Computeruhr würde gemessen, ob Cook die Fußstapfen seines legendären Vorgängers Steve Jobs ausfüllen konnte. Es wäre der erste Vorstoß von Apple in eine neue Produktkategorie seit dem iPad-Tablet vor über vier Jahren.

Wie vor jedem Apple-Event überschlagen sich die Gerüchte. Die beiden iPhones sollen mit Display-Diagonalen von 4,7 und 5,5 Zoll erstmals so groß wie die meisten Smartphones mit dem Google-System Android werden. Mit dem Bezahldienst solle man in Läden einfach sein iPhone an das Kassengerät halten können und den Betrag über dessen Fingerabdruck-Sensor statt per PIN oder Unterschrift bestätigen. Die Uhr kommt wohl in zwei Größen und soll neben Gesundheits-Sensoren ebenfalls den NFC-Funk unterstützen, auf dem der iPhone-Bezahldienst aufbaut. Nach Informationen des gut verdrahteten Blogs “9to5Mac” lässt Apple andere Online-Dienste bereits Apps für die Uhr entwickeln, darunter sei Facebook.

Die Messlatte für das kommende Event liegt also hoch

Apple betreibt für das Event noch mehr Aufwand als bei den bisherigen Produkt-Vorstellungen und setzt dabei auch auf Symbole. Tim Cook und sein Team werden nämlich im Flint Theater in Cupertino auftreten, in dem Firmengründer Jobs vor 30 Jahren den ersten Mac-Computer vorstellte. Damals wurde erstmals ein modernes Benutzungskonzept für PCs mit Maus und grafischer Oberfläche für den Massenmarkt eingeführt, das heute noch Gültigkeit hat. Die Messlatte für das kommende Event liegt also hoch. Neben dem Flint Theater wurde ein riesiges weißes Gebäude ohne Fenster aufgebaut. Was drin ist, weiß man nicht. Auf der Website läuft ein Countdown zur Live-Übertragung.

Apple will sich in der öffentlichen Meinung die Rolle des Innovators zurückholen. Über Geld muss sich der Konzern angesichts der steten Flut von Milliardengewinnen und über 160 Mrd. Dollar (123,6 Mrd. Euro) auf der hohen Kante zwar keine Gedanken machen. Aber seine Rivalen Google und Samsung werden von manchen Beobachtern und vielen Kunden als die innovativeren Unternehmen wahrgenommen.

Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen

Google experimentiert mit Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen. Und sein Android dominierte den Smartphone-Markt zuletzt mit einem Rekordanteil von fast 85 Prozent. Samsung ist zum größten Smartphone-Hersteller der Welt zwar vor allem mit seinen günstigen Modellen geworden, aber seine Spitzenmodelle wie das Galaxy S5 spielen in der iPhone-Klasse. Zudem beeilte sich Samsung, schon ein Jahr vor Apple mit seiner ersten Computeruhr vorzupreschen. Die ersten Geräte hatten noch Macken und wurden am Markt recht kühl aufgenommen. Bei den neuen Modellen wurden die Rezensionen besser, wie bei der auf der IFA gezeigten Gear S mit Mobilfunk-Anbindung.

Und auch deshalb sind die Erwartungen in eine Apple-Uhr so hoch. In den vergangenen Wochen und Monaten kam zwar eine Flut von Modellen diverser Hersteller auf den Markt. Aber die weitaus meisten hinterlassen das Gefühl, das Konzept ist noch deutlich verbesserungsfähig bei Laufzeit, Bedienung und Design. Kann Apple nach iPhone und iPad-Tablet auch in dieser Kategorie einen Maßstab setzen?

“Die Schweiz hat ein Problem”

Die Uhr gehört zu Apples bisher ambitioniertesten Projekten. “Die Schweiz hat ein Problem”, zitiert die “New York Times” Apples Designchef Jony Ive unter Berufung auf Insider. Allerdings wird auch erwartet, dass eine eventuelle “iWatch” voraussichtlich erst im nächsten Jahr auf den Markt kommt, auch wenn sie schon jetzt vorgestellt werden sollte. Dafür spricht auch, dass auf keiner Gerüchte-Website bisher ein glaubwürdig aussehendes Foto der Apple-Uhr erschienen ist – während längst Bilder aus den Fabriken in Asien ihren Weg in die Öffentlichkeit gefunden haben, die mit hoher Wahrscheinlichkeit die neue iPhone-Generation zeigen.

Tim Cook führt Apple anders als Jobs. Er überlässt seinen Managern mehr Verantwortung und geht schwierige Themen wie den Umweltschutz oder die Arbeitsbedingungen in China. Als zuletzt aus Apple-Profilen gestohlene Nacktfotos von Prominenten im Internet auftauchten, versprach Cook in einem Interview bessere Sicherheitsvorkehrungen. Zugleich betonte er aber auch, dass Apples Systeme technisch gesehen nicht aufgeknackt worden seien. Vor dem Start eines Bezahldienstes kann sich Apple keine Zweifel der Verbraucher leisten.

Die Börse bedachte Apple diesmal mit Vorschuss-Lorbeeren. Die Aktie markierte ein Rekordhoch mit 103,74 Dollar, auch wenn der Kurs danach etwas nachgab. Apple bestellte laut Medienberichten als Startauflage 80 Millionen iPhones – mehr als bei jeder Generation zuvor. (APA, 8.9. 2014)

 

Quelle:

http://derstandard.at

Urheberrecht: E-Book-Anbieter dürfen Weiterverkauf von Dateien untersagen

Categories: Ebooks
Comments: Comments Off
Published on: September 9, 2014

Urheberrecht

Was für Software gilt, gilt noch lange nicht für andere digitale Waren. Bei E-Books und Hörbüchern darf der Weiterverkauf von Downloads untersagt werden.

Anbieter von E-Book- und Hörbuch-Downloads dürfen den Weiterverkauf der Dateien untersagen. Ein entsprechendes Urteil des Oberlandesgerichts (OLG) Hamm vom Mai 2014 ist jetzt rechtskräftig geworden. Wie der Bundesgerichtshof in Karlsruhe am Donnerstag bestätigte, nahm der Verbraucherzentrale Bundesverband e.V. seinen Einspruch gegen die Entscheidung des OLG, eine Revision nicht zuzulassen, zurück. Die Verbraucherzentrale hatte gegen den Online-Händler buch.de geklagt, der das Verbot des Weiterverkaufs in seinen Allgemeinen Geschäftsbedingungen verankert hat. (BGH AZ: I-ZR 120/14, OLG Hamm AZ: 22 U 60/13)

Das nun rechtskräftige Urteil sei ein wichtiges, positives Signal, hieß es in einer Mitteilung des Börsenvereins des Deutschen Buchhandels. Die Entstehung eines “Gebrauchtmarktes” für E-Books und Hörbücher könne weder im Sinne der Autoren, Verlage und Händler noch der Kunden sein. Der Primärmarkt für digitale Inhalte würde in einem solchen Fall völlig zusammenbrechen. “Im Gegensatz zu gedruckten Büchern können digitale Bücher praktisch unendlich vervielfältigt und weitergegeben werden, zudem nutzen sie sich nicht ab. Welchen Grund gäbe es, das Original zu kaufen, wenn es eine riesige Auswahl identischer, aber günstigerer Kopien gibt?”, fragte der Börsenverein.

Software ist ein spezieller Fall

Ebenso hatte das OLG Hamm argumentiert. Nach Ansicht der Richter unterliegen aus dem Internet heruntergeladene Audio-Dateien und deren Kopien der Regelung von Paragraf 19 des Urheberrechtsgesetzes. Demnach bleibt das “Recht der öffentlichen Zugänglichmachung” auch nach dem Download beim Urheber. Anders als bei gedruckten Büchern oder CDs ende das Verbreitungsrecht des Urhebers nicht mit dem Verkauf, urteilten die Richter.

Der Gesetzgeber unterscheide zudem bewusst zwischen Computerprogrammen und anderen digitalen Dateien. Beim entsprechenden Paragrafen 69a-g des Urheberrechtsgesetzes handele es sich “um eine ganz spezielle, maßgeschneiderte Lösung exakt für und nur für Computerprogramme …, die nicht analogiefähig ist und es auch nicht sein soll”. Die Entscheidung des EuGH (C 128/11), wonach Software ohne Zustimmung des Herstellers weiterverkauft werden darf, betreffe Software und nicht andere digitale Produkte, insbesondere nicht Multimediadateien, speziell Hörbücher. “Ausgehend von den vorstehenden Ausführungen lassen sich die Spezialregelungen für Software nicht generalisieren”, schrieb das Gericht.  (fg)

 

www.golem.de/news/urheberrecht-e-book-anbieter-duerfen-weiterverkauf-von-dateien-untersagen-1408-108879.html

www.golem.de/

Angelbird SSD wrk: SSD aus Österreich will sich einen Namen machen

Categories: Hardware
Tags: ,
Comments: Comments Off
Published on: September 8, 2014

Die nagelneue Angelbird SSD wrk soll ein Wolf im Schafspelz sein, wenn man der Gerüchteküche glaubt: Die mit Kapazitäten von bis zu 512 GByte erhältliche 7-mm-SSD kommt als Einsteiger-Laufwerk daher, soll aber sehr performant sein. Wir haben nachgemessen.

Der österreichische Hersteller Angelbird bringt mit der Angelbird SSD wrk eine neue Serie preisgünstiger Einsteiger-SSDs an den Start. Die in den drei Kapazitäten 128, 256 und 512 GByte erhältlichen, nur sieben Millimeter flachen 2,5-Zoll-Laufwerke sind jeweils in ein schickes Gehäuse aus gebürstetem Aluminium gehüllt und offiziell zu Preisen von gerundet 90, 150 und 290 Euro zu haben.

In deutschen Preisvergleichsdiensten wie Geizhals werden sie bisher aber nur im Ausland (wenig überraschend: Österreich) gelistet; es gibt derzeit (25. August) anscheinend noch keinen deutschen Vertrieb.

 

Trotz Einsteiger-Etikett soll die mit einem sechs GBit/s schnellen SATA-Interface ausgestattete Angelbird SSD wrk durch eine hohe Performance überzeugen, die aktuellen Top-SSDs wie der Crucial M550, Samsung 840 Pro und 840 Evo oder Toshiba Q Pro in nichts nachsteht.

Angetrieben vom Silicon-Motion-Controller 2246EN und synchronem MLC-Flashspeicher von Micron bringen es die flachen SSDs laut Angelbird auf eine sequenzielle Leseleistung von bis zu 563 MByte/s. Beim sequenziellen Schreiben sollen bis zu 450 MByte/s möglich sein, bei den I/O-Operationen pro Sekunde sind es maximal 72.000 IOPS.

Was das 512 GByte fassende Spitzenmodell Angelbird SSDWRK512 leistet, haben wir im Testlabor ermittelt. Soviel vorweg: Angelbird hat nicht zuviel versprochen und eine richtig schnelle SSD herausgebracht.

 

Software-Ausstattung

Für die SSDs der wrk-Serie beitet Angelbird übrigens ein kleines Softwarepaket an. Das liegt dem Laufwerk zwar auf einer CD oder DVD bei, steht aber auch auf der Homepage des Herstellers zum Download bereit. Um die Tools herunterladen zu können, muss man zuvor einen Account erstellen und dabei die eigene SSD registrieren.

Zum Testzeitpunkt kann man die folgende Software herunterladen: Windows-Nutzer dürfen sich übe eine Vollversion der Sicherungssoftware System Reflection Backup Professional freuen, während Mac-User Parallels Desktop 9 herunterladen und damit Windows-Programme flüssig auf ihrem Apfel-Rechner laufen lassen, solange diese nicht allzuviel Leistung beanspruchen.

Den Multimedia-Bereich auf dem Download-Portal will Angelbird noch weiter ausbauen. Derzeit finden sich dort mit puremix Compression und puremix Gearfest 2012 Video-Tutorials zum Thema Musik.

Technische Daten

Angelbird wrk (512 GByte)


Serial ATA 6 Gb/s SSD

Angelbirds 512 GByte große Version der ‘wrk’ getauften SSD-Baureihe für preisbewusste Anwender sorgt im Test für solide Messwerte. Einzig die Ergebnisse bei den 4 KByte Random Reads/Writes ziehen die ansonsten schnelle wrk in der Gesamtwertung etwas herunter.

Technische Daten

Modellnummer :SSDWRK512

Formfaktor :2,5 Zoll, 7mm Bauhöhe

Schnittstelle :SATA 6 Gb/s

Controller :Sillicon Motion 2246EN

NAND-Typ :MLC (synchron), Micron (20 nm)

Cache :512 MByte (DDR3-1600)

Kapazität :512 GByte

weitere Kapazitäten :128, 256 GByte

Over-Provisioning :ca. 7%

Haltbarkeit (TBW/MTBF) :- / 2 Mio. Stunden

Geschwindigkeit (Lesen/Schreiben) :563 / 450 MByte/s

IOPS :72.000 (Schreiben)

Garantie :3 Jahre

Besonderheiten :Overload protection, TRIM, ECC, EMS , SMART

Testkonfiguration Performance-Messungen

System-Hardware
Prozessor: Intel Core i5-2500K (32 nm, Sandy Bridge, D2), 4C/4T, 3.3 GHz, 4x 256 KByte L2-Cache, 6 MByte L3-Cache, HD Graphics 3000, 95 Watt TDP, 3.7 GHz max. Turbo
Motherboard
(Sockel 1155):
Gigabyte Z68X-UD3H-B3, Revision: 0.2, Chipset: Intel Z68, BIOS: F3
Arbeitsspeicher: Corsair TR3X6G1600C8D, 2x 2 GByte DDR3-1333
System-SSD: Intel X25-M G1, 80 GByte, Firmware 0701, SATA (3 GBit/s)
Controller: Intel PCH Z68, SATA/600
Netzteil: Seasonic X-760, 760 Watt, SS-760KM, Active PFC F3
Benchmarks
Performance-Messungen: h2benchw 3.16
PCMark 7 1.0.4
I/O-Performance: IOMeter 2006.07.27
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Streaming Reads
Streaming Writes
4K Random Reads
4K Random Writes
System-Software & Treiber
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1030
Intel Rapid Storage: 10.5.0.1026

Testkonfiguration Messungen Leistungsaufnahme

System-Hardware
Prozessor: Intel Core 2 Extreme X7800 (65 nm, Merom XE, E1), 2C/2T, 2.6 GHz, 4 MByte L2-Cache, 44 Watt TDP
Motherboard (Sockel 478): MSI Fuzzy GM965, Revision: 1.0, Chipset: Intel GM965, BIOS: A9803IMS.220
Arbeitsspeicher: Crucial BallistiX CM128M6416U27AD2F-3VX, 2x 1 GByte DDR2-666
System-HDD: Western Digital WD3200BEVT, 320 GByte, SATA (3 GBit/s), 5400 U/min
Controller: Intel ICH8-ME
Netzteil: Seasonic X-760, 760 Watt, SS-760KM, Active PFC F3
Benchmarks
Video-Playback: VLC 1.1.1
Big_Buck_Bunny_1080p
I/O-Performance: IOMeter 2006.07.27
Database-Benchmark
Streaming Writes
System-Software & Treiber
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1021
Intel Graphics: 15.12.75.4.64

 

Die Homepage besuchen:

http://www.tomshardware.de/angelbird-wrk-ssd-mlc-trim,testberichte-241623.html

Windows Store: Nutzer kritisieren Microsofts Vorgehen gegen Fake-Apps

Categories: Unternehmen
Comments: Comments Off
Published on: September 3, 2014

Windows Store

Microsoft hat innerhalb von rund drei Monaten 1.500 sogenannte Fake-Apps aus dem Windows Store entfernt. Das klingt erst einmal viel, aber weiterhin enthält der Store viele fragwürdige App-Titel. Nutzer kritisieren das halbherzige Vorgehen von Microsoft.

Sie nerven und stören: Fake-Apps. Vor allem im Windows Store und auch im Windows Phone Store ist Microsoft dagegen vorgegangen und hat einige solcher Fake-Apps entfernt. Dabei handelt es sich um Einträge, die etwa die Bezeichnungen bekannter Apps kopieren und die Nutzer so in die Irre führen. Beispiele hierfür sind VLC, Youtube, Firefox, iTunes oder Ähnliches. Die Fake-Apps kosten oftmals Geld – die eigentlichen Originale sind hingegen kostenlos zu bekommen.

Mitte Mai 2014 hatte Microsoft verkündet, gegen derartige Fake-Apps vorgehen zu wollen. In den vergangenen drei Monaten hat Microsoft nun nach eigener Aussage 1.500 solcher Apps aus dem Windows Store entfernt. Allerdings kritisieren Nutzer, dass weiterhin viele Einträge im Windows Store vorhanden sind, die Markennamen und Logos anderer Apps verwenden. Eine exemplarische Suche nach Youtube veranschaulicht das existierende Problem.

Käufer von Fake-Apps bekommen Geld zurück

Wer sich eine Fake-App gekauft hat, kann sich an den Microsoft-Support wenden und soll das Geld zurückerhalten. Für die Käufer einer Fake-App könnte es schwierig sein zu erkennen, ob sie zu den Betroffenen zählen. Microsoft hat keine Liste der 1.500 entfernten Apps veröffentlicht, die Betroffenen helfen könnte. Es ist nicht bekannt, ob Microsoft die Käufer der betreffenden Produkte direkt informiert.

Unter Microsofts aktuellem Blog-Posting zur Löschaktion bemängeln Nutzer ein halbherziges Vorgehen gegen Fake-Apps. Sie berichten, dass Microsoft vielfach nicht angemessen auf gemeldete Verstöße reagieren würde. Wenn Microsoft auf Fake-Apps hingewiesen werde, erhalten sie die Antwort, sich an den App-Entwickler zu wenden. Der Hüter des Windows Stores selbst wird erst einmal nicht aktiv.

Microsofts Dilemma

Microsofts Dilemma ist weiterhin offensichtlich. Einerseits möchte Microsoft, dass sowohl im Windows Store als auch im Windows Phone Store möglichst viele App-Titel aufgelistet sind. Auf der anderen Seite sorgen Fake-Apps dafür, dass der Store unnötig unübersichtlich ist und eine Vielfalt vorgaukelt, die nicht gegeben ist. Das könnte das bisher zögerlich erscheinende Vorgehen von Microsoft erklären. Der Hersteller will die Menge der Einträge im Windows Store offenbar nicht zu sehr verringern.

Ein Kommentator fasst das Problem zusammen: Er unterstellt Microsoft, dass das Unternehmen bis Mai 2014 mit Freude und Begeisterung solche Fake-Apps durchgewunken habe. Falls das nicht stimme, sei es ein Indiz für eine bisherige fahrlässige Prüfung der App-Einreichungen.

Die nächsten Monate werden zeigen, ob Microsoft nun entschiedener gegen Fake-Apps im Windows Store vorgeht. Es wäre zu wünschen, denn unterm Strich werden es die Kunden des Stores zu schätzen wissen, wenn Suchergebnisse die passenden Treffer liefern. Derzeit ist es bei populären Apps noch immer so, dass bei einer Suche danach stattdessen Produkte mit zweifelhaftem Nutzen erscheinen.

 

Link zum Artikel:

www.golem.de/

Youtube und Google+: Google schafft Klarnamenzwang ab

Categories: Internet Business
Tags: ,
Comments: Comments Off
Published on: August 10, 2014

So wie Facebook wollte auch Google die Mitglieder seines sozialen Netzwerks zwingen, ihre echten Namen zu benutzen. Nach einer Lockerung der Regelung vor zwei Jahren verzichtet Google jetzt ganz auf den Klarnamenzwang und entschuldigt sich.

In einem unerwarteten Schritt hat Google für Google+-Benutzerkonten den Klarnamenzwang sowie bisherige Verifizierungsmodalitäten für Pseudonyme abgeschafft. Ab sofort sind Nutzer bei der Wahl ihrer Namensangaben im Profil völlig frei, wie das Unternehmen auf Google+ verkündet.

Überraschend ist der Schritt, weil die Debatte über Sinn und Unsinn der Erforderlichkeit des Klarnamens bei Google+ schon drei Jahre zurückliegt. Damals waren Google selbst und leidenschaftliche Nutzer seiner kurz zuvor eingeführten, alle Google-Dienste vernetzenden “soziale Ebene” voller Hoffnung.

Mittlerweile ist Google+ die Puste ausgegangen. Auch, weil aus Unternehmenssicht eine wichtige Aufgabe von Google+ abgeschlossen wurde, nämlich die Vereinheitlichung der Benutzerkonten zur besseren, effektiveren Werbevermarktung und Nutzerdatenanalyse. Dass der Konzern selbst keine großen Ambitionen mehr für Google+ hat, zeigt die Abwesenheit seiner Erwähnungen auf der jüngst abgehaltenen Google-Entwicklerkonferenz I/O. Der “Vater” des Projekts, Vic Gundrota, verließ das Unternehmen jüngst.

Anfang 2012 hatte Google zwar schon Pseudonyme erlaubt und damit seine “Gebrauchsnamenpflicht”, wie das Unternehmen es selbst nannte, etwas aufgeweicht. Doch Kritikern ging der Schritt nicht weit genug, zumal er erheblichen Einschränkungen unterlag.

Die jetzige Entscheidung zur Abschaffung des Klarnamenzwangs begründet Google mit dem Streben nach einem alle Menschen inkludierenden Ort. Das Unternehmen entschuldigt sich auch gleich noch bei allen Personen, die sich bislang durch den Zwang zur Angabe ihres vollen Namens ausgegrenzt fühlten.

Ein Schritt, um Youtube-Nutzer zu besänftigen?

Der Schritt, ausgeführt zum Höhepunkt des medialen Sommerlochs, im Urlaubsmonat Juli kurz nach Abschluss der Fußballweltmeisterschaft, wirkt schon etwas kurios. Als Reaktion auf die einstigen Proteste gegen Googles sture Haltung kann der Entschluss aufgrund der seitdem vergangenen Zeit kaum gewertet werden. Und ganz ohne Begrenzungen kommen die Namensrichtlinien auch weiterhin nicht aus: Auf der Hilfeseite, die während einer Namensänderung verlinkt wird, informiert Google darüber, dass nach einer Modifizierung bis zu drei Monate lang keine weiteren Änderungen möglich sind.

Unterm Strich lässt sich die Neuigkeit, so nebensächlich sie für viele Anwender auch klingen mag, dennoch als Strategiewechsel bezeichnen. Google scheint nicht länger um jeden Preis die namentliche Identität der Nutzer in Erfahrung bringen zu wollen. Sei es, weil für die gezielte Anzeigenauslieferung ohnehin hinreichend Datenpunkte über jeden einzelnen Google-Nutzer vorhanden sind. Oder vielleicht, weil das Unternehmen doch noch einmal versuchen möchte, Google+ einen Push zu geben – und das dieses Mal über eine Differenzierung vom Hauptwettbewerber Facebook, nicht als “Me too”-Produkt.

Vielleicht geht es aber auch nur darum, Kritiker der unpopulären Implementierung von Google+ als Kommentarmodul bei Youtube zu besänftigen: Seit November ist ein Profil bei Google plus nötig, um Youtube-Videos zu kommentieren – was unter Youtube-Nutzern einigen Ärger erregt hat. Und anders als das aktuelle Google+ ist Youtube für Google wichtig.

Vermutlich ist die Maßnahme nur der erste von mehreren Teilschritten, mit denen Google+ in den nächsten Monaten umgebaut, in den Hintergrund gerückt oder für einen Relaunch fit gemacht wird. Denn in der aktuellen Form erfüllt das Produkt für Google keine bedeutende Rolle (mehr).

 

Ursprünglich veröffentlicht:

www.golem.de/news/

Soziales Netzwerk: Google Orkut wird begraben

Categories: Google
Tags: ,
Comments: Comments Off
Published on: Juli 19, 2014

Orkut schließt seine Pforten

Das soziale Netzwerk Orkut ist älter als Facebook. Doch außerhalb von Brasilien und Indien war der Dienst nie sonderlich populär. Zugunsten von Google+ zieht Google nun einen Schlussstrich.

Bereits kurz vor Facebook und lange vor Google+ gründete Google mit Orkut sein erstes eigenes soziales Netzwerk: Orkut. Benannt wurde es nach dem Entwickler Orkut Buyukkokten. Hierzulande spielte es kaum eine Rolle, war vielen sogar gänzlich unbekannt, so dass man es hierzulande durchaus als Flop bezeichnen konnte. In Indien und Brasilien aber war es überaus populär. Mit dem Start von Google+ drängte Google die Orkut-Nutzer dazu, zum neuen Netzwerk und Facebook-Rivalen zu wechseln. Der nächste Schritt auf dem Weg ins Grab erfolgte Ende 2012, als es der Stopp neuer Features für Orkut angekündigt wurde. Nun hat Google angekündigt, die Pforten des sozialen Netzwerks am 30. September 2014 zu schließen. Nach dem Ende von Quickoffice ist das schon die zweite Schließungsmeldung aus Mountain View in dieser Woche.
Als Begründung für das Aus von Orkut wird das starke Wachstum von Youtube, Blogger und Google+ angegeben. Deren Communities würden das Orkut-Wachstum in den Schatten stellen. Google will seine Kräfte auf die anderen Projekte konzentrieren, heißt es im Orkut-Blog.

 

Zwar wird Orkut am 30. September begraben, doch noch bis September 2016 sollen die Nutzer noch Zeit haben, ihre Fotoalben und Profile zu exportieren. Das funktioniert über Google Takeout auf dieser Webseite. Nach dem 30. September wird man sich jedoch nicht mehr in Orkut einloggen können und Fotoalben von dort nicht mehr nach Google+ umziehen können. Wichtig: Wer eigene (öffentliche) Postings nicht für die Ewigkeit konservieren möchte, sollte diese bis Ende September löschen. Denn anschließend werden sie archiviert. Das komplette Orkut-Profil können Sie über www.google.com/settings/datatools und “Produkte löschen” entfernen.
 
Zuerst erschienen auf:

Deutscher Tablet-Markt wächst 2014 voraussichtlich um 15 Prozent

Categories: Pads
Tags:
Comments: Comments Off
Published on: Juli 18, 2014

Im laufenden Jahr werden in Deutschland voraussichtlich erstmals mehr als neun Millionen Tablets verkauft werden. Wie der Branchenverband Bitkom auf Basis aktueller Prognosen des European Information Technology Observatory (EITO) schätzt, steigt der Absatz auf 9,2 Millionen Stück. Das entspräche einem Plus gegenüber dem Vorjahr von 15 Prozent. Verglichen mit den 2,3 Millionen Tablets, die im Jahr 2011 verkauft wurden, wäre es sogar eine Vervierfachung.

 

Der Umsatz wächst der EITO-Prognose zufolge allerdings nur noch um rund 5 Prozent auf 2,5 Milliarden Euro. Schon 2013 hatte das Tablet-Geschäft mit einem Absatzplus von 52 Prozent auf 8 Millionen Stück und einem Umsatzanstieg um 36 Prozent auf 2,4 Milliarden Euro neue Rekordwerte erreicht. “Tablet Computer haben sich etabliert und legen auf dem erreichten hohen Niveau weiter zu”, sagte Bitkom-Präsident Dieter Kempf.

Dass das Umsatzwachstum mit dem Geräteverkauf nicht Schritt halten kann, liegt dem Branchenverband zufolge an dem sich verschärfenden Preiswettbewerb, der inzwischen auch den Tablet-Markt erreicht hat. Lag der Durchschnittspreis pro Tablet vor drei Jahren noch bei mehr als 400 Euro so werden es in diesem Jahr weniger als 275 Euro sein.

“Für die Kunden sind das gute Nachrichten. Sie haben die Wahl zwischen einer Vielzahl von Modellen in unterschiedlichen Größen, Leistungsmerkmalen und auch Preisen”, so Kempf.

Außer für Tablets interessieren sich die Deutschen auch zunehmend für Datenbrillen wie Google Glass. Laut einer vom Marktforschungsinstitut Aris im Auftrag des Bitkom durchgeführten Umfrage, kann sich fast jeder Dritte (31 Prozent) vorstellen, sogenannte Smart Glasses zu nutzen. Das entspricht 22 Millionen Bundesbürgern. 13 Prozent der 1004 Befragten ab 14 Jahren gaben sogar an, auf jeden Fall solch eine Brille nutzen zu wollen.

 

“Der Start von Google Glass in den USA hat das Interesse an smarten Brillen auch in Deutschland messbar gesteigert”, sagt Bitkom-Experte Timm Hoffmann. Insgesamt sind Smart Glasses hierzulande deutlich bekannter geworden. Fast die Hälfte aller Deutschen (48 Prozent) hat schon davon gehört, im Vorjahr war es erst rund ein Viertel (27 Prozent).

Smart Glasses können Informationen wie E-Mails oder Navigationshinweise direkt ins Sichtfeld einblenden und erlauben es, Fotos und Videos aus dem Blickwinkel des Trägers aufzunehmen. Der Umfrage zufolge interessieren sich mehr Frauen als Männer für solche Brillen. Jede dritte Frau (33 Prozent) kann sich vorstellen, eine Datenbrille zu tragen. Bei den Männern fällt der Anteil mit 29 Prozent etwas geringer aus.

Leichte Unterschiede gibt es auch in den Altersklassen. 39 Prozent der 14- bis 29-Jährigen geben an, künftig smarte Brillen nutzen zu wollen. Bei den 30- bis 49-Jährigen sind es 33 Prozent und bei den 50- bis 60-Jährigen 34 Prozent. Bei Personen über 65 Jahren ist das Interesse an der neuen Technik mit 19 Prozent deutlich geringer.

 

 

Die Homepage besuchen:

www.zdnet.de/88196190

Win XP: dreizehn Jahre lang und bisher ist kein Ende abzusehen

Categories: Software
Comments: Comments Off
Published on: Juli 1, 2014

Ein nicht wirklich alter PC (ca. drei Jahre alt) benötigte eine Auffrischung. Ursprünglich lief auf dem Rechner Windows XP, für das aber der Support von Microsoft beendet wurde und deshalb der Rechner auf Windows 7 umgerüstet werden sollte. Im April 2014 hat Microsoft die Unterstützung für Windows XP eingestellt, was bedeutet, dass ab diesem Zeitpunkt keine Updates mehr für das Betriebssystem bereitgestellt werden. Es ist nicht ratsam, nach Beendigung des Supports noch sehr lange Windows XP zusammen mit dem Internet zu nutzen. Windows Updates sind in den überwiegenden Fällen Sicherheitsupdates. Nach wie vor werden Sicherheitslücken in den Betriebssystem entdeckt, die aber nicht ursprünglich darin enthalten waren, sondern die sich durch neue Technologien und zusätzlichen Programmen einfach ergeben und es ist verständlich das Microsoft nach nunmehr 13 Jahren, die es Windows XP gibt, kein weiteres Geld für die Entwicklung von Updates ausgeben möchte. Auch wenn immer noch 25 % der Internetnutzer mit Windows XP ins Netz gehen, wird sich das dieses Jahr 2014 erheblich ändern. Man ist förmlich gezwungen, auf Windows 7 unter Windows 8 umzusteigen, wenn selbst die beste Sicherheitssoftware und die besten Antivirenscanner ziemlich nach Lage, Angriffe auf neue Sicherheitslücken abzuwehren. In Deutschland sieht man vor allem in sehr kleinen oder kleinen Firmen immer noch viele Rechner mit Windows XP. Viele dieser Computer können nicht mehr auf Windows 7 umgerüstet werden bzw. würde eine Umrüstung nahezu genauso viel kosten wie eine Neuanschaffung. Meiner Erfahrung nach ist es noch nicht so vielen Firmeninhabern bewusst, dass an dieser Stelle in diesem Jahr eine hohe Ausgabe fällig ist. Bin mir sicher, dass sowohl Microsoft als auch die Computerhersteller das spüren werden. Das wird dem ohnehin Not leidenden Hardwaremarkt speziell bei den herkömmlichen PCs und Laptops gut tun. Mittlerweile ist er sogar schon so, wie mir mein Laptop Hilfe Berlin Mein PC wieder ok verraten hat, dass Microsoft langsam Windows 7 aus dem Markt nehmen möchte, um Windows 8 zu propagieren. Aber auch um Windows 7 nicht so lange laufen zu lassen wie weiland Windows XP, denn das würde auch bedeuten eine so lange Zeit Support anbieten zu müssen. Wobei Windows 8 immer noch kein Publikumsliebling geworden ist, tritt Microsoft das Betriebssystem, das sicherlich einige Designschwächen hat, mit allen Mitteln den Markt.

Kundenbefragung: Sicherheitssoftware für Unternehmen / Schutzfunktion im Fokus der Kritik – Kaspersky auf Platz eins vor IBM und Symantec

Categories: Sicherheit
Comments: Comments Off
Published on: Juni 25, 2014

Gehackte E-Mail-Accounts, Malware oder IT-Spionage – angesichts publik gewordener Fälle von Sicherheitslücken sind die Gefahren durch Trojaner und andere digitale Schädlinge mehr denn je in aller Munde. Der Schutz vor Computerkriminellen, die danach trachten, ganze Firmennetze lahmzulegen, steht daher ganz oben auf der Aufgabenliste der Entscheider in den Unternehmen. Zuverlässige Sicherheitssoftware ist dabei ein Muss. Aber welcher Anbieter von Security-Programmen bietet qualitativ hochwertige Produkte? Und welcher Hersteller überzeugt durch eine ausgeprägte Kundenorientierung sowie ein gutes Preis-Leistungs-Verhältnis? Das Deutsche Institut für Service-Qualität ermittelte in einer Befragung im Auftrag des Wirtschaftsmagazins “Markt und Mittelstand” die Zufriedenheit von IT-Entscheidern mit sechs bedeutenden Anbietern für Sicherheitssoftware.

Insgesamt schnitt die Branche sehr gut ab. Rund 81 Prozent der IT-Entscheider lobten die geringe Ausfallquote der Programme und waren der Ansicht, dass das Portfolio des Software-Unternehmens ihre Bedürfnisse abdeckt. Mehr als drei Viertel der Befragten gaben zudem an, dass sich die Mitarbeiter nur selten über die Security-Programme beschweren.

In einem entscheidenden Punkt zeigte sich allerdings Verbesserungspotenzial: “Mit der Schutzfunktion der eingesetzten Software war gut ein Fünftel der Befragten nicht vorbehaltlos zufrieden oder sogar unzufrieden”, kritisiert Markus Hamer, Geschäftsführer des Deutschen Instituts für Service-Qualität. Zudem waren nur knapp 70 Prozent der Teilnehmer der Meinung, dass die Konditionen und das Preis-Leistungs-Verhältnis der Software-Anbieter in Ordnung seien. Updates für die eingesetzte Software stellten die Hersteller laut gut drei Viertel der Befragungsteilnehmer zuverlässig zur Verfügung. Verbesserungswürdig war auch die Beratungsleistung der Software-Firmen: Weniger als 75 Prozent der befragten IT-Entscheider waren mit der Beratung durch die Hersteller vorbehaltlos zufrieden.

Den ersten Rang erreichte Kaspersky. In den Kategorien Leistung, Angebot und Produkte überflügelte dieser Anbieter die Wettbewerber in der Gunst der befragten Kunden. Sehr gut schnitt Kaspersky auch im entscheidenden Punkt ab – der Schutzfunktion der Software. Das exzellente Preis-Leistungs-Verhältnis rundete das hervorragende Resultat ab. Der Zweitplatzierte IBM tat sich nach Meinung der Befragten vor allem durch seine ausgeprägte Kundenorientierung hervor. Die Teilnehmer honorierten jedoch auch die verlässliche Leistung der Software und das sehr gute Angebot. Symantec wurde Dritter. Zu den Stärken dieser Firma zählte das stimmige Gesamtangebot aus sehr guten Konditionen und umfangreichem Portfolio.

Für die Untersuchung zur Zufriedenheit von Unternehmen mit Anbietern von Sicherheitssoftware wurden 150 Entscheider telefonisch zu sechs bedeutenden Herstellern befragt. Mit der Kundenbefragung beauftragte das Deutsche Institut für Service-Qualität den Feldspezialisten Krämer Marktforschung. Im Mittelpunkt der Befragung standen die Meinungen zu den Bereichen Leistung, Angebot, Produkte und Kundenorientierung.

Das Deutsche Institut für Service-Qualität (DISQ) verfolgt das Ziel, die Servicequalität in Deutschland zu verbessern. Das Marktforschungsinstitut mit Sitz in Hamburg führt zu diesem Zweck unabhängige Wettbewerbsanalysen, B2B-Studien und Kundenbefragungen durch. Rund 1.500 geschulte Tester sind in ganz Deutschland im Einsatz. Die Leitung der Forschungsprojekte, bei denen wissenschaftlich anerkannte Methoden und Service-Messverfahren zum Einsatz kommen, obliegt einem Team aus Soziologen, Ökonomen und Psychologen. Dem Kunden liefert das Institut wichtige Anhaltspunkte für seine Kaufentscheidungen. Unternehmen gewinnen wertvolle Informationen für das eigene Qualitätsmanagement. Das Deutsche Institut für Service-Qualität arbeitet im Auftrag von renommierten Print-Medien und TV-Sendern; Studien für Unternehmen gehören nicht zum Leistungsspektrum des DISQ.

Veröffentlichung nur unter Nennung der Quelle: Deutsches Institut für Service-Qualität im Auftrag von "Markt und Mittelstand" 

Pressekontakt:

Markus Hamer Fon: +49 (0)40 / 27 88 91 48 - 11 Mobil: +49 (0)176 / 64 03 21 40 E-Mail: m.hamer@disq.de 
www.disq.de

Original:
www.presseportal.de/pm

Apple: Hardware-Details zu Apples iPhone 6 aufgetaucht

Categories: Apple
Tags: ,
Comments: Comments Off
Published on: Juni 22, 2014
Um das neue iPhone von Apple sprießen die Gerüchte. Teilweise sind sie wild bis absurd, andere wiederum scheinen plausibel. Wann das Release des iPhones 6 ist, wird von Apple noch als Geheimnis gehütet. Die taiwanische “Economic Daily News” berichtete unter Berufung auf Zulieferer des US-Konzerns, Apple habe bereits Smartphone-Teile vom Halbleiter-Hersteller Visual Photonics Epitaxy und vom Kameralinsen-Hersteller Largan Precision gekauft. Die beiden großen Elektronikkonzerne Foxconn und Pegatron seien zudem informiert worden, dass die Montage der Geräte voraussichtlich ab Ende Juni beginne. Auf den Markt könnte es dann im September kommen. Darauf deutet eine Urlaubssperre für Apple Mitabeiter für September hin.

Technische Zeichnungen, die im Internet aufgetaucht sind, verraten, dass das neue iPhone wohl nur sechs Millimeter dick sein wird. Außerdem soll das neue iPhone 6 mit einem NFC-Chip für bargledloses Bezahlen ausgestattet sein.

Fotos von Gehäuseteilen, die aus Fabriken stammen sollen, legen den Verdacht nahe, dass Apple gleich zwei neue iPhone-Modelle auf den Markt bringen will: Ein etwas kleineres mit einem 4,7 Zoll großen, randlosen 16:9 Bildschirm, und ein sogenanntes Phablet mit 5,2 Zoll großem, ultrahochauflösendem Display.

Letzteres Gerät soll als iPhone Air mit besonders dünnem Gehäuse vermarktet werden, die Akku-Probleme könnten seinen Marktstart bis Anfang 2015 verzögern. Angeblich setzt Apple bei der kommenden Gerätegeneration erstmals auf Saphirglas, um den Touchbildschirm besser gegen Kratzer zu härten.

Apples Flaggschiff definiert seit 2007 den Fortschritt einer ganzen Produktklasse. Ohne Steve Jobs’ Erfindung wären Smartphones vielleicht noch immer Geräte mit Tastatur, sicherlich aber nicht so verbreitet wie heute.

Doch mittlerweile droht die Revolution ihre Gründer hinter sich zu lassen, die Innovation im Smartphone-Segment treiben aktuell andere: Samsung erkannte als erster den Trend zum großen Bildschirm, Google zeigt modulare Telefone, Microsoft neue Drahtlos-Funktionen.

Seit dem iPhone 4s, seit Steve Jobs Tod im Oktober 2011, steht Apples Technologieführerschaft infrage.

Der Konzern steht unter hohem Druck seiner Investoren, die Erwartungen der Kunden zu erfüllen: ein größerer Bildschirm, mehr Speicherplatz, robustere Geräte.

Verfolgen Sie in unserem Blog, was über das kommende iPhone 6 berichtet wird.

 

 
Ursprünglich veröffentlicht:
 
 
 

WLAN: Internet fürs Meer

Categories: Networks
Comments: Comments Off
Published on: Mai 3, 2014

US-Wissenschaftler haben ein Protokoll entwickelt, das eine Kommunikation mit Sensoren im Wasser über das Internet ermöglicht. Es basiert auf dem Open-Source-Betriebssystem Linux.

Unter Wasser gibt ist derzeit noch kein Internet. Gründe sind die schwierige Datenübertragung sowie fehlende Kompatibilität vorhandener Systeme. US-Forscher haben ein Protokoll entwickelt, das eine Kommunikation mit Sensoren im Meer oder in Seen über das Internet ermöglicht.

An Land können Daten per WLAN oder Mobilfunk übertragen werden. Unter Wasser breiten sich Funkwellen jedoch nicht weit aus. Für die Datenübertagung unter Wasser werden deshalb Schallwellen genutzt, die im Wasser eine große Reichweite erzielen. Per Schall werden Daten von Sensoren an eine Boje übertragen, die sie dann in Funksignale umwandelt und übermittelt. So arbeitet etwa das Tsunami-Warnsystem der National Oceanic and Atmospheric Administration (NOAA), die US-Wetter- und Ozeanographiebehörde, aber auch andere Systeme nutzen diese Funktionsweise.

Inkompatible Systeme

Das Problem sei aber, dass die Systeme auf unterschiedlichen Infrastrukturen basierten. Das erschwere den Austausch von Daten zwischen diesen Systemen, sagen die Forscher der Universität von Buffalo im US-Bundesstaat New York. Sie wollen das ändern.

Die Wissenschaftler um Tommaso Melodia haben eine Architektur entwickelt, über die sich Daten von Sensoren unter Wasser in Echtzeit auf jedes internetfähige Gerät übertragen lässt. Sie hätten es als Linux-Gerätetreiber für ein kommerzielles Unterwassermodem des Herstellers Teledyne Benthos implementiert, schreiben sie in einem Fachaufsatz.

Die Forscher haben das System getestet: Sie versenkten im benachbarten Eriesee zwei große Sensoren. Mit diesen konnten sie Daten austauschen. Ihre Architektur sei, resümieren sie, mit TCP/IP kompatibel.

Warnung vor Katastrophen

“Ein Funknetz unter Wasser wird uns die bisher nicht dagewesene Fähigkeit verleihen, in unseren Ozeanen Daten in Echtzeit zu sammeln und zu analysieren”, erklärt Projektleiter Melodia. “Wenn solche Daten für jedermann auf dem Smartphone oder auf dem Computer abrufbar sind, kann das Leben retten, vor allem wenn ein Tsunami oder eine andere Katastrophe eintritt.”

Katastrophen seien aber nicht das einzige Anwendungsszenario für ein Unterwasserinternet, sagen die Forscher. Eine solches Netz könnte bei der Suche nach unterseeischen Gas- und Ölvorkommen ebenso eingesetzt werden wie für den Umweltschutz, etwa um die Verschmutzung der Meere im Auge zu behalten.

Fische, Säuger, Drogenschmuggler

Auch Strafverfolger könnten ein Internet im Meer nutzen – etwa bei der Suche nach Drogenschmugglern, die für ihre Aktivitäten gern auch selbst gebaute U-Boote einsetzen. Mit einem Sensornetz unter Wasser könnten solche Aktivitäten unterbunden werden, sagt Melodia. “Wir könnten es sogar dazu einsetzen, um Fische und Meeressäuger zu beobachten, um herauszufinden, wie sie am besten vor Schiffen und anderen Gefahren geschützt werden können.”

Die Forscher wollen ihre Entwicklung auf der International Conference on Underwater Networks & Systems vorstellen. Die Konferenz findet vom 11. bis zum 13. November 2013 in Kaohsiung auf Taiwan statt.chips-1310-102074.html)

 

Original-Artikel:

www.golem.de/news/wlan-internet-fuers-meer-1310-102164.html

IHS: Notebooks mit Touchscreen sind stark im Kommen

Categories: Laptops
Comments: Comments Off
Published on: Mai 3, 2014

Angesichts fallender Preise gehen die Marktforscher von IHS davon aus, dass bis zum Jahr 2016 knapp ein Viertel aller Notebooks über einen Touchscreen verfügen. Weltweit sollen dann 78 Millionen solcher Geräte ausgeliefert werden. Zum Vergleich: 2012 waren es noch 4,6 Millionen, im laufenden Jahr soll ihre Zahl auf 24 Millionen steigen.

 

Als Hauptgrund für die zunehmende Verbreitung nennt IHS die fallenden Touchscreen-Preise. Diese sollen im laufenden Jahr mit 35 Dollar für 14-Zoll-Modelle im Schnitt nur halb so hoch liegen wie noch 2012, wo Gerätehersteller pro Display 60 bis 70 Dollar zahlen mussten. “Der Preis von 35 Dollar wird zur breiten Marktakzeptanz beitragen, da er die Fertigung günstigerer Touchscreen-Notebooks ermöglicht”, so die IHS-Analysten.

Das aktuelle Windows 8 ist die erste Version von Microsofts Betriebssystem, die fortgeschrittene Touch-Funktionen unterstützt. Die Technik ist vielversprechend, und zahlreiche Hersteller haben bereits mehr Geräte mit Touchscreens angekündigt. Bisher ist die Zahl der tatsächlich verfügbaren Touchscreen-Notebooks allerdings noch überschaubar.

Die PC-Industrie ist auf jegliche Hilfe angewiesen, die sie kriegen kann, um die Nachfrage wieder anzukurbeln. Das erste Quartal 2013 war eins der schlechtesten seit Jahren. Sowohl Gartner als auch IDC bescheinigten der Branche einen zweistelligen Absatzrückgang. Es war das vierte Quartal in Folge, in dem gegenüber dem Vorjahreszeitraum weniger Computer verkauft wurden. Und auch für das restliche Jahr 2013 ist keine Besserung in Sicht.

Viele Hersteller, darunter auch Chipriese Intel, hoffen, dass touchfähige Geräte dem PC-Markt neue Käufer bescheren werden. “Touch-Displays erfinden den PC-Markt neu, und in diesem Bereich gibt es eine großes Wachstumspotenzial”, sagt Zane Ball, Intels Vice President und General Manager für Global Ecosystem Development. “Bei Intel haben wir die Strategie gewählt, dass Touch überall sein sollte. Wir glauben, indem Touch in den PC-Bereich vordringt, dass es ein umformendes Produkt sein und eine neue Nachfrage entfesseln wird.”

 

Artikel-Quelle:

http://www.zdnet.de

«page 1 of 11

Teilen

Welcome , today is Mittwoch, Oktober 22, 2014