Ratgeber: Betriebssystem: Windows 7 und 8: Verschwundenen Papierkorb wiederherstellen

Categories: Computer Support
Comments: Comments Off
Published on: September 12, 2014
Vermissen Sie den Windows-Papierkorb, stellen Sie ihn im Nu wieder her. Das klappt auch mit Tuning-Software.
Der Papierkorb ist ein praktisches Werkzeug: Alle Dateien, die Sie löschen, landen zunächst in diesem Auffangbecken. Erst wer den Papierkorb explizit leert, löscht die darin gespeicherten Daten – sodass sie mit Bordmitteln nicht wiederzubeschaffen sind. Bei Bedarf stellen Sie versehentlich gelöschte Dateien mit wenigen Mausklicks wieder her. Fehlt das entsprechende Desktop-Symbol bei Ihnen, hat es jemand versehentlich oder absichtlich ausgeblendet. Es könnte auch eine Tuning-Software dafür verantwortlich sein.

Mithilfe des Fensters Desktopsymboleinstellungen zaubern Sie den Papierkorb wieder ans Tageslicht.

Das Wiederherstellen des Papierkorbs ist schnell erledigt: Klicken Sie mit der rechten Maustaste auf eine freie Stelle des Desktops. Nach einem Klick auf die Kontextmenü-Option Anpassen wählen Sie im sich öffnenden Fenster oben links Desktopsymbole ändern. Es öffnet sich ein weiteres Fenster. Indem Sie Häkchen vor den gelisteten Funktionen setzen, bringen Sie sie auf den Desktop. Stellen Sie sicher, dass vor Papierkorb ein Haken gesetzt ist. Mit Klicks auf Übernehmen und OKspeichern und verlassen Sie das Konfigurations-Fenster.

 

Alternative Vorgehensweise

Wer die TuneUp Utilities 2014 nutzt, stellt den Papierkorb mithilfe der Windows-Optimierungs-Software leicht wieder her. Unter Windows XP ist die Nutzung einer solchen Software die einzige Möglichkeit, einen fehlenden Papierkorb wiederzubeschaffen: Der Papierkorb ist unter XP zwar nicht per Einstelldialog ausblendbar, fehlt er aber, sind zur Problemlösung umständliche Eingriffe in die Registrierungs-Datenbank nötig. Nach dem Start von TuneUp 2014 wechseln Sie zur Kategorie Probleme beheben und klicken auf Symbol „Papierkorb“ wird nicht angezeigt. Nach zwei Klicks auf Weiter ist der Papierkorb zurück. Abschließend wählen Sie Fertig stellen.

In Internet-Foren kursieren einige falsche Tipps zum Wiederherstellen des Papierkorbs. Folgende Varianten funktionieren nicht: Im Startmenü nach der Funktion suchen und sie auf den Desktop ziehen, eine Datenrettungs-Software nutzen, unter XP nach einem Rechtsklick auf den Desktop Eigenschaften, Desktop, Desktop anpassen, Papierkorb sowie Wiederherstellenwählen. Mitunter empfehlen einige Foren-Nutzer, den Papierkorb nach dem Papierkorb zu durchsuchen – ein gleichermaßen nutzloser wie absurder Vorschlag.

Papierkorb im Papierkorb

Ist es überhaupt möglich, den Papierkorb in den Papierkorb zu verschieben? Nein – es ist nur vorgesehen, ihn durch das Entfernen eines Häkchens unsichtbar zu machen. Etwas anders sieht das mit Verknüpfungen des Verzeichnisses aus: Die können Sie tatsächlich in den virtuellen Mülleimer befördern. Fehlt der originale Papierkorb, klappt die Wiederstellung mithilfe solcher Verknüpfungen aber nicht, da er dort nach dem Ausblenden nicht auftaucht.

 
 
Homepage besuchen:

IDC korrigiert PC-Prognose nach oben

Comments: Comments Off
Published on: September 12, 2014

Die Marktforscher von IDC haben ihre Zahlen zum weltweiten PC-Markt im Jahr 2014 korrigiert. Sie erwarten zwar immer noch einen Rückgang der Verkäufe von Notebooks und Desktop-PCs gegenüber dem Vorjahr, er wird aber weniger drastisch ausfallen als befürchtet. Konkret ist von 303 Millionen übers Jahr verkauften Einheiten die Rede.

 

Im Vorjahr waren 315 Millionen PCs verkauft worden. Das bedeutet einen Rückgang um 3,7 Prozent. Zuvor war IDC von 6 Prozent Rückgang ausgegangen.

Weiterhin sind es vor allem Firmen, die PCs kaufen. IDC zufolge sind das Support-Ende für Windows XP, die große Nachfrage nach Chromebooks im Bildungsbereich und weniger Wettbewerb durch große Tablets die wichtigsten Faktoren hinter der leichten Besserung. Analyst Jay Chou kommentiert: “Programme zur Senkung der PC-Preise wie Windows 8.1 mit Bing haben ebenfalls für mehr PC-Absätze in einigen Segmenten geführt.”

Der Analyst beobachtet zudem eine allgemeine Hinwendung zu Mobil-PCs, schnellere Innovationen und eine Konzentration auf Preispunkte. “Trotzdem gibt es nur schwache Aussichten auf langfristig signifikantes PC-Wachstum, da die Anwender PCs immer mehr als nur eines von mehreren Computing-Geräten sehen.”

 

Im kommenden Jahr könnte der Markt immerhin von der Einführung von Windows 9 “Threshold” im Frühjahr profitieren. So lange seine Vorteile gegenüber Windows 8 nicht klar seien, könne man seine möglichen Auswirkungen auf den Markt aber nicht abschätzen, erklärt IDC. Bekannt ist vor allem, dass Windows 9 sich leichter mit Maus und Tastatur bedienen lassen wird als das Touch-optimierte Windows 8.

Vorerst prognostiziert IDC fürs kommende Jahr 291 Millionen verkaufte PCs. Die negative Wachstumsrate des Markts wird sich seiner Auffassung nach abschwächen.

Vor drei Wochen hatte IDC schon seine Jahresprognose für den weltweiten IT-Markt erhöht. Das Gesamtjahreswachstum wird währungsbereinigt 4,5 Prozent betragen. Ohne Smartphones wären es nur plus 3,1 Prozent. Heimanwender und Firmen ersetzen in unerwartetem Umfang ältere PCs und Notebooks. Das geht vorläufig zu Lasten des Tabletmarkts.

Gartner hingegen meldete im Juli erstmals seit zwei Jahren ein leichtes Wachstum des PC-Markts: Die Verkaufszahlen legten um 0,1 Prozent auf 75,8 Millionen Einheiten zu. Regionen wie EMEA und USA erzielten mit 8,6 beziehungsweise 7,4 Prozent sogar ein deutliches Plus. Lenovo vergrößerte seinen Vorsprung vor dem ehemaligen Marktführer Hewlett-Packard. Das Analystenhaus geht zudem davon aus, dass sich die Chromebook-Verkäufe bis 2017 nahezu verdreifachen werden.

[mit Material von Steven Musil, News.com]

 

 

externer Link zum Artikel:

http://www.zdnet.de/88203855/idc-korrigiert-pc-prognose-nach-oben/

Suchmaschinenoptimierung richtig einsetzen

Categories: SEO
Tags: ,
Comments: Comments Off
Published on: September 10, 2014

Fast überall hört man heutzutage von der Suchmaschinenoptimierung oder kurz SEO für Search Engine Optimization. Doch was bedeutet das? Warum ist SEO so wichtig und wieso haben es kleinere Shops oft einen Nachteil gegenüber der größeren im Bezug zur Suchmaschinenoptimierung? Diese Fragen werden nun geklärt und Suchmaschinenoptimierung Berlin hilft dabei das Suchmaschinenranking, zu optimieren.

Warum benötigt man Professionelle Suchmaschinenoptimierung?

Die eigene Internetpräsenz jeder Firma gehört in der jetzigen Zeit zum guten Ton und nicht nur das sie ist zudem unerlässlich. Die eigene Homepage dient als Aushängeschild des Unternehmens auf der sich Bestandskunden und auch potenzielle neue Kunden Informationen einholen über die Firma, das Produkt oder das Projekt. Dieses Aushängeschild soll von möglichst vielen Menschen möglichst oft gesehen und vor allem gefunden werden. Hier kommt die Professionelle Suchmaschinenoptimierung ins Spiel, denn dank dieser Maßnahmen wird der Webseite beispielsweise von Suchmaschinenoptimierung Berlin geholfen auf den vordersten Plätzen der unterschiedlichen Suchmaschinen zu erscheinen, und somit besser von den Nutzern gefunden zu werden. Den Ort, wo Webseiten am meisten wahrgenommen und geklickt werden. Dies wiederum bedeutet mehr Erfolg im Internet.

Was haben die großen Firmen, was die Kleinen nicht haben?

Viele kleine Händler folgen dem Irrtum, dass viele Produkte im Shop einen hohen Traffic generieren. Aber auch für kleine Online-Shops ist die professionelle Suchmaschinenoptimierung ein unerlässliches Werbemittel, in das es sich zu investieren lohnt. So ist es ziemlich unwahrscheinlich das ein Shop in den oberen Ergebnissen auftaucht, wenn Produktbeschreibungen komplett fehlen, so wie es meist bei kleinen Shops der Fall ist. Große Firmen haben erkannt das eine hohe Wortdichte mit viel hochwertig verfassten Unique Content nötig ist. Werden Artikelbeschreibungen kopiert oder diese verwendet die an alle Shops ausgegeben werden, wird das Unternehmen von den Suchmaschinen als minderwertig eingestuft. Besitzt man als kleineres Unternehmen nicht die Mittel eine Firma für Professionelle Suchmaschinenoptimierung zu engagieren, können den Shop bereits wenige eigene geschriebene Seiten etwas nach vorne bringen. Suchmaschinenoptimierung Berlin kann kleinen Händlern dabei helfen, den Sprung nach oben zu schaffen. Da viele potenzielle Käufer vor dem Kauf echte Kundenbewertungen lesen, ist es durchaus angebracht, auch diese in der Webseite mit einzubringen. Der Vorteil daran ist der kostenlose Unique Content auf einer lebendigen Seite, die aktuell bleibt und im Suchmaschinen-Ranking immer wieder nach oben rutscht. Genau das haben große Shops bereits erkannt und zum Beispiel die Suchmaschinenoptimierung Berlin genutzt.

Intel Core i7-5960X im Test: Die PC-Revolution beginnt mit Octacore und DDR4

Categories: Hardware
Tags: ,
Comments: Comments Off
Published on: September 10, 2014

Intel Core i7-5960X im Test

Intels neues Topmodell für Desktop-PCs, kleine Workstations und Übertakter startet früher als erwartet – und ist mit alter Software manchmal langsamer als der Vorgänger. Für Profis kann sich der Prozessor Core i7-5960X dennoch lohnen.

Diesmal gibt es nicht wenige, sondern gar keine Aufrüstmöglichkeiten: Wer Intels neue Serie Core-i7-5900/5800 nutzen will, braucht eine neue CPU, ein neues Mainboard und neuen Speicher. Das schreckt zunächst ab, ist aber logisch. Der hier getestete Core i7-5960X basiert wie alle Extreme-CPUs der vergangenen Jahre auf Server-Technik, genauer dem ebenfalls bald erwarteten Haswell-EP, der als Xeon 2600 v3 erscheinen wird.

Diese neuen Xeons bringen eine Generalüberholung der gesamten Infrastruktur mit sich, sodass sich auch beim Haswell-E 5960X zahlreiche Änderungen ergeben. Da die Produkte bei Servern und Workstations mehrere Jahre aktuell bleiben, dürfte Intel auch die neue Plattform entsprechend lange pflegen.

Das zeigt sich schon am neuen Sockel LGA 2011-v3, der nur mechanisch gleich bleibt. Selbst alte Kühler, die vor drei Jahren für Sandy Bridge-E (Core-i7-3900) angeschafft wurden, passen also noch. Dennoch sind neue Mainboards nötig, denn die 2011 Kontakte sind anders beschaltet. Das ist dem DDR4-Speicher geschuldet, für den Haswell-E wie gehabt vier Speicherkanäle mitbringt.

DDR4 ist eine direkte Anforderung von Server- und Supercomputerherstellern, die sich laut Intel vor allem mehr Bandbreite wünschen, selbst wenn dafür die Latenzen steigen. Da bei solchen Anwendungen vor allem große Programme und Daten bearbeitet werden, ist die effektive Bandbreite des Hauptspeichers wichtiger als bei kleinen Desktop-Anwendungen. Andere Techniken wie höchstens 40 PCI-Express-Lanes in Version 3.0 und weitere Schnittstellen blieben weitgehend unverändert.

Wichtigste Neuerung sind die acht Kerne, die per HyperThreading 16 Threads parallel verarbeiten können. Nach Intels Lesart ist der 5960X die erste Achtkern-CPU des Unternehmens für Desktop-PCs. Das stimmt nur soweit, wie man nur Core-CPUs und kleinere Modelle als für den Desktop geeignet ansehen mag. Findige Bastler setzen aber schon seit Jahren auch Xeons in günstigen Desktop-Boards ein. Dabei bezahlt man aber stets meist nicht genutzte Funktionen wie die Eignung für ECC-Speicher und die Fernwartung vPro mit – beides unterstützt auch der 5960X nicht. Auch von AMD gibt es seit den ersten Bulldozer-FX-CPUs acht Kerne, wobei aber nur acht Integer-Einheiten vorhanden sind und halb so viele FPU- und SIMD-Rechenwerke.

Der entscheidende Unterschied zu den Xeons sind bei den neuen Core-CPUs die offenen Multiplikatoren sowie weitere Übertaktungsfunktionen. Da sich die Strukturbreite von 22 Nanometern gegenüber Ivy Bridge-E nicht geändert hat, bedingen die beiden zusätzlichen Kerne und der von 15 auf 20 MByte vergrößerte L3-Cache insgesamt bis zu 2,6 Milliarden Transistoren und eine höhere Leistungsaufnahme. Statt 130 Watt TDP sind nun 140 Watt abzuführen, was aber mit guten Luftkühlern noch möglich ist. Damit das klappt, mussten die Taktfrequenzen gesenkt werden.

Mehr Kerne, mehr Cache, weniger Takt

Während der erst vor einem Jahr erschienene Core i7-4960X (Ivy Bridge-E) mit seinen sechs Kernen noch einen Basis- und Turbotakt von 3,6 und 4,0 GHz erreichte, kommt der Core i7-5960X nur auf 3,0 und 3,5 GHz. Mehr Leistung kann er also nur dann erreichen, wenn seine um ein Drittel höhere Zahl an Kernen von der Software auch genutzt wird. Dabei gilt es aber noch die kürzlich von Golem.de ausführlich beschriebenen Eigenheiten der Turbos zu beachten.

Der Basistakt ist bei Intel-CPUs nur die Frequenz, welche die Kerne unter den ungünstigsten Bedingungen mindestens erreichen. In der Praxis liegt auch bei voll in Threads aufgeteilten Programmen wie Cinema4D bei stundenlanger Last der Takt höher – und zwar beim 5960X prozentual gesehen noch höher, als beim 4960X.

Intel gibt einen Turbo-Takt von 3,3 GHz bei Belastung aller Kerne für den 5960X an, den die CPU in unserem Test auch stets erreichte. Das liegt drei Multiplikatorstufen über dem Basistakt. Beim 4960X ist es nur eine, da diese CPU aber dann mit 3,7 GHz läuft, ist sie mit schlecht in Threads aufgeteilten oder gar Single-Thread-Programmen dennoch schneller als der Nachfolger. Wohl daher ist anders als früher befürchtet der 5960X auch nicht teurer als der 4960X, für beide Prozessoren gilt der Großhandelspreis von 999 US-Dollar zuzüglich Steuern.

Da es jetzt ein Drittel mehr Kerne gibt, wurde auch der L3-Cache um ein Drittel aufgestockt, und zwar von 15 auf 20 MByte. Im Verhältnis wurde der schnelle Zwischenspeicher bei den beiden Sechskernmodellen 5930K und 5820K mit 15 MByte sogar überproportional größer, für den Hexacore 4930K gab es nur 12 MByte. Einen Quad-Core wie den 4820K bietet Intel mit der Serie Haswell-E nicht mehr an, seinen Platz übernimmt der 4790K.

Wer sich mit dem 5960X besonders große Systeme mit mehr als zwei Grafikkarten bauen will, stößt an eine schon von seinem Vorgänger bekannte Grenze: Es sind nur 40 PCIe-Lanes in Version 3.0 vorhanden. Das reicht für zwei Grafikkarten mit x16-Anbindung, eine dritte bekommt nur noch 8 Lanes. Bei vier Karten müssen sich drei mit x8-Anbindung begnügen. Bei Spielen reduziert das die Leistung kaum, bei Rechenanwendungen für GPUs kann das aber zum Flaschenhals werden.

Dazu kommt noch, dass mit M.2-SSDs nun eine weitere Komponente zum Nachrüsten existiert, die im Idealfall mit vier PCIe-Lanes angebunden werden sollte. Das hat auch Asus mit dem zum Test verwendeten Highend-Mainboard Rampage V Extreme recht kompromisslos umgesetzt: Wenn sich im vierten PCIe-Slot eine Karte befindet, wird die M.2-Schnittstelle abgeschaltet. Dank Dual-GPU-Karten lassen sich aber dennoch vier Grafikprozessoren und eine M.2-SSD verwenden, alternativ gibt es an diesem Mainboard auch zwei Sata-Express-Schnittstellen, wenn vier Grafikkarten verwendet werden sollen.

Die Zahl der PCIe-Lanes ließ Intel auch bei den beiden kleineren Haswell-E unverändert, der 5930K besitzt 40 Leitungen und der 5820K nur 28. Mit dem kleinsten der neuen Prozessoren lassen sich also nicht einmal mehr zwei Grafikkarten mit voller Bandbreite ansteuern, das war beim 4820K mit 40 Lanes noch anders. Dennoch reichen die PCI-Express-Anbindungen für mehr Erweiterungen als bei den Quad-Cores der Serie Core-i-4000, denn dort sind bei allen Prozessoren höchstens 16 Lanes vorhanden. Die PCIe-Lanes die direkt im Root-Complex des Prozessors sitzen, stehen exklusiv für Steckkarten zur Verfügung, alle anderen Schnittstellen des X99-Chipsatzes inklusive 8 PCIe-Lanes in Version 2.0 stellt dieser selbst zur Verfügung.

Sparsamer X99-Chipsatz und DDR4-Speicher

Traditionell gelten die X-Chipsätze für Intels Highend-Plattformen als Stromverschwender – das hat sich mit dem X99 endlich geändert. Zwar gibt Intel gegenüber dem Vorgänger X79 – ein X89 erschien nie – nur eine Senkung der TDP von 7,8 auf 7 Watt an. Die Strukturbreite wurde aber von 65 auf 32 Nanometer verkleinert, sodass der TDP-Wert wohl nur symbolisch ist, damit die Mainboardhersteller nicht viel zu kleine Kühler verbauen. Da kaum noch Zusatzchips nötig sind, kann die gesamte Plattform viel weniger Energie als bei Sandy Bridge-E und Ivy Bridge-E aufnehmen.

So gibt es nun endlich auch in der Extreme-Serie native Unterstützung für USB 3.0, und zwar gleich für sechs Ports. Wenn mehr Anschlüsse wie beim Asus Rampage V vorhanden sind, arbeiten weiterhin andere USB-Controller auf dem Mainboard – wer sie nicht braucht, kann sie im UEFI abschalten. Zusätzlich gibt es durch den Chipsatz auch bis zu acht USB-2.0-Ports.

Mit zehn Sata-Anschlüssen mit 6 GBit/s stellt der X99 auch so viele Schnittstellen für Massenspeicher zur Verfügung, dass sich damit größere Desktop-RAIDs realisieren lassen. Für Selbstbau-Server sind aber zusätzliche Ethernet-Schnittstellen nötig, nur einen Gigabit-Port kann der Chipsatz direkt anbinden. M.2-Slots sieht Intel nicht direkt vor, sie können aber über die PCIe-Lanes des Prozessors zur Verfügung gestellt werden.

Sparsamkeit ist auch beim neuen Speichertyp DDR4 angesagt. Statt minimal 1,35 Volt bei DDR3 sind DDR4-DIMMs von Anfang an auf 1,2 Volt ausgelegt. Die Speicherchips mit ihren immer kleineren Strukturen von derzeit unter 30 Nanometern machen das eigentlich schon länger mit, nur waren die Adressierungsverfahren und die Busprotokolle für das inzwischen 15 Jahre alte Prinzip von DDR-Speichern kaum geeignet.

Folglich arbeitete das Normierungsgremium JEDEC schon seit über drei Jahren daran, die Organisation der DRAMs und der physikalischen Busse möglichst gleich zu lassen und die Übertragung dennoch schneller zu machen. Alles andere hätte völlige Neukonstruktionen von Speichercontrollern und Mainboards bedeutet. Geeinigt hat man sich schließlich auf neue Protokolle, die Gruppierung in internen Bänken – nicht zu verwechseln mit den üblichen Banks – und mehr parallele Zugriffe durch ein erweitertes Prefetching. Damit die Signalqualität erhalten bleibt, kann der Bus dynamisch invertiert werden.

All das geht mit heutigen Speicherchips zu Lasten der Latenz. Die günstigsten der im Vergleich zu DDR3 ohnehin noch teuren DDR4-Module haben ein CAS-Latency von 17, ein Wert, den auch billigste DDR3-Speicher leicht unterbieten. Ausgeglichen wird das durch einen höheren Takt. Wo effektiv 2.133 MHz bei DDR3 schon zu den besseren Übertakter-Modulen zählen, ist das bei DDR4 die Einstiegsfrequenz – zumindest bei den bisher verfügbaren Modulen.

Allerdings ist DDR4-2133 auch der höchste Wert, den die JEDEC spezifiziert hat, es gibt aber auch schon Module mit 2.800 MHz, und 3.000 MHz sind angekündigt, aber noch kaum verfügbar. Damit die Mainboards die richtigen Timings einstellen, hat Intel sein Extreme Memory Profile (XMP) in Version 2.0 neu aufgelegt – ein Sprung von der bisherigen Version 1.3, die für DDR3 weiterhin gültig ist.

Für den bisherigen Speicher gibt es zwar schon länger auch Module mit effektiv 3.000 MHz und mehr, sodass der Vorteil von DDR4 sich erst langfristig zeigen muss. Er liegt, weil durch Server-Technik getrieben, vor allem in mehr Speicher bei nicht überproportional steigender Leistungsaufnahme. Das zeigte sich schon auf der Computex 2014, als Mainboardhersteller 128 GByte für Haswell-E empfahlen – Intel sieht nur 64 GByte vor.

Äußerlich unterscheiden sich die die neuen Module durch 288 statt 240 Kontakte, dabei sind sie an der Kontaktseite unverändert 134 Millimeter breit. Damit die höhere Dichte der Anschlüsse sicher in den Slot findet, stehen die mittleren Kontakte bei DDR4-Modulen etwas hervor, was mehr Aufwand bei der Fertigung der Platinen bedeutet. Mechanisch passen durch eine verschobene Einkerbung DDR3-Module nicht in DDR4-Slots und umgekehrt. Irrtümliches Einstecken ins falsche Board ist so ausgeschlossen.

Testsysteme und Verfahren

Wir testen für die Benchmarks ein Vorserienexemplar (ES) des Core i7-5960X auf dem Asus-Mainboard Rampage V Extreme aus der ROG-Serie. Es bietet nicht nur den Intel-Sockel 2011-v3, sondern eine Sonderversion, die zum Übertakten mehr Pins der CPU ansteuert, wie unsere Kollegen von PC Games Hardware herausgefunden haben. In unserem Technologievergleich der Plattformen von 2013 und 2014 laufen die Systeme aber innerhalb ihrer Werkseinstellungen.

Da Intel zum ersten Mal seit über drei Jahren die Zahl der Kerne für Desktop-PCs wieder erhöht hat, aber den Takt senkte, konzentrieren wir uns auf den Vergleich von 4960X, 5960X und dem 4770K als erstem Haswell-Quadcore.

Die Messungen der beiden Extreme-CPUs erfolgen sowohl mit dem für die anderen Prozessoren verwendeten Netzteil Dark Power Pro von Be Quiet mit 850 Watt Nennleistung als auch mit dem recht sparsamen und neueren Straight Power desselben Herstellers mit 400 Watt und 80+-Gold-Zertifizierung. Dabei wurde die für die grafiklastigen Tests verwendete Radeon HD 7870 durch eine Radeon HD 6450 ersetzt, die für den Windows-Desktop nur 7 Watt benötigt. Dafür gibt es eigene Diagramme, die nur die Leistungsaufnahme von Intels Extreme-Editions vergleichen. Als Treiber kommt der WHQL-zertifizierte Catalyst 14.4 zum Einsatz. Die Zusatzchips der Mainboards und andere Erweiterungen wie WLAN-Adapter oder LED-Beleuchtungen schalten wir ab.

Intels bisherige Sechskerner laufen auf dem MSI-Mainboard X79A-GD65 8D mit X79-Chipsatz, dort verwenden wir 16 GByte DDR3-2133-Speicher mit den Timings 11-12-12-31. Das ist für Vergleichbarkeit wichtig, weil effektiv 2.133 MHz bisher die kleinste Taktfrequenz für verfügbare DDR4-Module sind. Dort betragen die Timings 15-15-15-35. Die gleichen DDR3-Speicher wie für die Hexacores stecken wir auch in das Z87-Deluxe von Asus, in dem der 4770K vermessen wird.

Alle Anwendungen und Daten kommen von einer Intel-SSD der Serie 520 mit 240 GByte Kapazität, von denen wir 24 GByte für besseres Wear-Levelling unpartitioniert lassen. Die Messungen finden unter Windows 7 Ultimate in der 64-Bit-Version statt, da wir wissen, dass dieses Betriebssystem auch bei den Lesern von Golem.de noch die am weitesten verbreitete Windows-Version und für Benchmarks zuverlässiger ist. Wo möglich, verwenden wir die 64-Bit-Versionen der Anwendungen.

Synthetische Benchmarks zeigen Single-Thread-Schwäche

Acht gegen sechs Kerne lautet das Duell beim Vergleich von 4960X und 5960X. Beim Vergleich der beiden Sechskerner 3960X und 4960X ergaben sich durch die Architekturverbesserungen und den gering gesteigerten Takt 7 bis 10 Prozent mehr Rechenleistung. Intels Ziel ist es, mit jedem neuen CPU-Design, wozu auch Haswell zählt, rund 10 Prozent mehr zu erreichen. Beim 5960X ist dafür der Takt geringer als bei seinem Vorgänger – das kann sich bei Single-Thread-Anwendungen trotz der Architekturvorteile negativ auswirken. Werden jedoch alle Cores voll ausgelastet, sind in der Theorie rund 30 Prozent mehr Leistung zu erzielen.

Das zeigen auch Cinebench R11.5 und R15, die mit Takt und Kernzahl nahezu perfekt skalieren: Der 5960X ist fast ein Drittel schneller als der 4960X, alle anderen CPUs sind abgeschlagen. Bei beiden Programmen lässt sich auch nur ein Kern nutzen, dann ist der 4960X durch seinen Taktvorteil gleichauf. Um die Leistung pro Takt zu bewerten haben wir beide CPUs auch mit einem festen Multiplikator von 30 auf 3,0 GHz eingestellt und Cinebench R15 neu vermessen. Durch zwei Kerne mehr gewinnt dann auch der 5960X.

Das ist auch bei Nutzung von nur einem Core der Fall, allerdings fällt das Ergebnis mit 108 gegenüber 110 Punkten zu Gunsten des 5960X äußerst knapp aus. Immerhin kann der Haswell-E hier seinen Architekturvorteil und den größeren L3-Cache offenbar noch ausspielen. Zudem bleibt Cinebench lange Zeit auf dem selben Kern, was bei älteren Anwendungen nicht der Fall ist.

Ein Extrembeispiel für ein Programm, das ständig die Kerne wechselt – was die CPU intern unter anderem durch Cache-Flushes durcheinanderbringt – ist SuperPi Mod XS 1.5. Wenn wir damit die Kreiszahl auf 4 Millionen Nachkommastallen berechnen, braucht der 5960X über zwei Sekunden länger als der 4960X. Der höhere Turbotakt des Ivy Bridge-E bringt hier den Vorteil, SuperPi ist so klein, dass der größere L3-Cache nicht ins Gewicht fällt. Wenn also noch sehr alte Single-Thread-Anwendungen eingesetzt werden müssen, sollte man durch eigene Tests prüfen, ob sich die neue CPU lohnt. Dann kann auch ein viel billigerer Quad-Core wie der 4790K mit 4,4 GHz bei Belastung eines Kerns schneller sein.

Bei Multithreading-Anwendungen schlägt die um ein Drittel erhöhte Kernzahl aber in der Regel zu, wenn sich die Programme nicht durch die für Desktops ungewohnt hohe Zahl von 16 Threads verwirren lassen.

Medienbearbeitung und Kompression

Selbst wenn ein Programm die acht Kerne und 16 Threads nutzt, kann es auf dem 5960X nicht automatisch schneller sein als beim 4960X. Das ist beispielsweise bei Lightroom der Fall, womit wir 257 Raw-Dateien in LZW-komprimierte TIFFs konvertieren. Dabei lastet das Adobe-Programm die Kerne ungleichmäßig aus, sodass der 5960X leicht langsamer als der 4960X ist. Das heißt nicht, dass die neue CPU sich nicht für Bildbearbeitung eignet. In nicht bewerteten Vergleichen mit Photoshop-Filtern wie Nik Dfine und Color Efex zeigte sich eine gleichmäßige Auslastung.

Ebenfalls langsamer kann der Haswell-E sein, wenn mit Winrar in der 64-Bit-Version die gleichen Raw-Dateien mit normaler Kompression in ein Rar-Archiv verpackt werden sollen. Wenn die gleiche SSD verwendet wird, ist der 4960X durch seinen höheren Turbo-Takt etwas schneller fertig. Wenn solche Aufgaben häufig anstehen, reicht aber schon die Erhöhung um zwei Multiplikatorstufen um den Nachteil auszugleichen. Das ist zwar eine moderate Übertaktung, viele professionelle Anwender schrecken aber vor solchen Eingriffen für ein Produktivsystem noch immer zurück.

Wir haben außerhalb der bewerteten Tests den Rechner sowohl bei der Konvertierung wie auch der Kompression praxisnah genutzt. Dabei fiel auf, dass der Start großer Programme wie Cinema4D oder der Aufruf komplexer Webseiten spürbar schneller abliefen. Genau messbar sind solche Vorteile von einigen Sekunden kaum, es geht eher um einen psychologischen Vorteil: Auch Aufgaben, die ältere Systeme voll auslasteten und unbenutzbar machen, sind nun kein Hindernis mehr, das von anderen Arbeiten abhält.

Wenn nicht gerade alle Kerne unter voller Last stehen, wie das etwa beim Rendering mit Cinema4D der Fall ist, reagiert ein Rechner mit dem Core i7-5960X fixer auf Eingaben und den Start anderer Anwendungen. Es sind stets vier Threads mehr verfügbar als beim 4960X, auf welche das Betriebssystem die Aufgaben verteilen kann.

Für Medienschaffende ist es aber unabdingbar, vor der Anschaffung einer Achtkern-CPU beim Hersteller der meistgenutzten Anwendungen nachzufragen, wie viele Threads von diesen tatsächlich genutzt werden. Da schon acht Threads durch Quad-Cores mit Hyperthreading seit Jahren üblich sind, sollten moderne Programme auch das doppelte nutzen können – denn Achtkerner sind durch die Xeons und AMDs FX-CPUs auch nicht brandneu, mit Intels neuem Haswell-E dürfte die Verbreitung noch etwas zunehmen.

Zahlreiche weitere Benchmarks des 5960X, vor allem mit Spielen, finden sich bei unseren Kollegen der PC Games Hardware, die auch das kleinere Modell 5820K vermessen haben. Den 5960X konnten sie auf bis zu 4,7 GHz übertakten, was aber eine Leistungsaufnahme für das Gesamtsystem von 271 Watt zur Folge hatte.

Rendertests mit über 27 Stunden

Wenn von Multicore-CPUs wie dem 5960X die Rede ist, fällt vielen Anwendern als Paradedisziplin der Videoschnitt ein – das ist aber nicht unbedingt die Programmkategorie, bei denen die Vielkerner ihren Vorteil voll ausspielen können. Noch besser ist 3D-Animation geeignet.

Um zu zeigen, wie sich mehr Kerne in der Praxis der Mediengestaltung auswirken, berechnen wir daher mit Cinema4D R15 ein echtes Projekt. Es wurde uns von dem freischaffenden Fotografen und Filmer Andreas Brauner zur Verfügung gestellt. Anders als beim Cinebench R15 werden damit die Einzelbilder eines 30-Sekunden-Films mit 25 fps berechnet. Dabei entstehen pro Sekunde aber nicht 25 Bilder, sondern 250.

Für die Weiterverarbeitung werden nämlich neben den Bildern der Objekte auch Beleuchtung und Effekte in einzelnen TIFF-Dateien gespeichert, die später in einem Compositing-Programm in Ebenen zusammengefügt werden. Dadurch muss etwa für eine Abdunklung einer einzelnen Szene nicht der gesamte Film neu gerendert werden. Der Rechenaufwand für die Bilder ist enorm: Auf einem Core i7-4770K braucht die Erstellung von 30 Sekunden Animation über 27,5 Stunden Renderzeit.

Da Cinema4D mehr Kerne stets nutzt, sinkt dieser Zeitaufwand mit dem 4960X und erst recht dem 5960X deutlich. Mit Ivy Bridge-E und sechs Cores sind nur noch 20 Stunden und 23 Minuten nötig, was den Arbeitsablauf bei der Produktion entscheidend beeinflussen kann: Das Rendering kann am Abend eines Arbeitstages gestartet werden und ist am Nachmittag des nächsten Tages fertig. Dann können noch Anpassungen vorgenommen werden, und wiederum einen Tag später liegt das hoffentlich korrekte Ergebnis vor. Mit 27,5 Stunden verschieben sich die Arbeiten, sofern nicht Nachtschichten eingelegt werden, immer um einen Tag mehr.

Mit dem 5960X ist der Film bereits nach 14 Stunden und 40 Minuten fertig, was noch mehr Spielraum für Überarbeitungen erlaubt, weil nicht einmal mehr einen Arbeitstag, inklusive der Nacht, gewartet werden muss. Wer das Rendering um 19 Uhr startet, kann am nächsten Morgen um 10 Uhr das Ergebnis überprüfen, und beispielsweise nach einer Konferenz mit Mitarbeitern schon mittags einen neuen Durchlauf starten.

Alle Plattformen, sowohl mit 4770K wie 4960X und 5960X liefen bei unseren Rendertests trotz 16 GByte Speicher mit je vier Modulen auch bei mehreren Durchläufen vollkommen stabil. Dass für tagelanges Rechnen also unbedingt ECC-Speicher nötig ist, scheint zumindest für Cinema4D nicht zuzutreffen.

Leistungsaufnahme mit deutlich höherer Effizienz

Allein an der TDP lässt sich der Energiebedarf moderner Prozessoren nicht beurteilen. Sie ist eine technische Angabe für PC-Hersteller, nicht das, was der Rechner ständig an Leistung aufnimmt. Beim 5960X zeigt sich das deutlich: Die TDP für die CPU allein ist mit 140 Watt angegeben, dennoch nimmt unsere Testplattform mit sparsamem Netzteil nur 146 Watt unter Last auf allen Kernen auf. Das gilt für ein sparsames 400-Watt-Netzteil. Soll für mehrere Grafikkarten ein 850-Watt-Modell genutzt werden, sind es unserem Fall 158 Watt.

Bei ruhendem Windows-Desktop ist die Leistungsaufnahme in einem effizienten PC auf 38 Watt zu drücken, mit weniger sparsamem Netzteil sind es noch 44 Watt. Alle Idle-Werte liegen deutlich unter denen des 4960X, unter Last benötigt der 5960X-PC aber im besten Fall 146 statt 136 Watt wie beim 4960X-System. Da dabei jedoch für rund 30 Prozent mehr Rechenleistung nur gut 7 Prozent mehr Energie aufgewendet werden müssen, ist der Haswell-E dennoch der deutlich effizientere Prozessor.

Nun vom 4960X umzusteigen, dürfte sich aber rein aus Gründen der Energieeinsparung kaum lohnen, selbst wenn um den 5960X herum eine Maschine gebaut werden soll, die stets unter Volllast steht. Bis die rund 1.500 Euro für CPU, Mainboard und RAM an Stromkosten eingepart sind, ist die Plattform längst veraltet.

Bei allen Betrachtungen der Leistungsaufnahme von Highend-CPUs ist neben dem Netzteil das Mainboard entscheidend. Unser verwendetes Rampage V von Asus ist auf Overclocking, nicht Effizienz getrimmt. Die große E-ATX-Platine bedingt allein schon längere Leitungen. Dass sich damit dennoch geringere Idle-Werte als beim 4960X ergeben, den wir auf einem recht sparsamen MSI-Mainboard gemessen haben, beeindruckt umso mehr. Auf beiden Boards haben wir alle Zusatzchips, Funkmodule und die LED-Beleuchtung für diese Messungen abgeschaltet. Mit all diesem Zubehör nimmt das Rampage V rund 10 Watt mehr auf.

Mit kleineren Mainboards und noch effizienterem Netzteil – unser Be Quiet ist nach 80 Plus Gold zertifiziert – sollten auch Haswell-E-Systeme zu machen sein, die an der 30-Watt-Grenze kratzen. Für eine komplett neue Plattform ist das eindrucksvoll, insbesondere die Hersteller von kleinen Workstations sollten diese Vorteile durch sorgfältige Konfiguration nutzen.

Fazit

Der Core i7-5960X markiert einen Umbruch. Intel setzt konsequent auf mehr Kerne, auch wenn der Takt dafür etwas geringer ausfällt. Ohne Übertaktung ist die Achtkern-Plattform bei geringer Last sogar sparsamer als die Sechskern-Vorgänger. Haben alle Cores viel zu tun, rechtfertigt die Mehrleistung die gering erhöhte Leistungsaufnahme völlig. Ein effizientes Netzteil ist dafür die Voraussetzung.

Auch wenn ein Drittel mehr Kerne für Medienschaffende, welche die Kosten einer Xeon-Workstation scheuen, zunächst verlockend scheinen, will ein Umstieg dennoch gut überlegt sein. Ein neues Mainboard und neuer Speicher sind neben der CPU in jedem Fall zu bezahlen – da war der unveränderte Preis der Highend-CPU für Intel fast schon Pflicht. Soll für Medienbearbeitung ohnehin ein komplett neuer Rechner angeschafft werden, weil der alte noch genutzt wird, ist der 5960X die bessere Wahl als der 4960X.

Das gilt vor allem, wenn Zukunftssicherheit wichtig ist. Da die entsprechenden Xeon-CPUs demnächst erst erscheinen, dürfte Intel die neue Plattform einige Jahre mit neuen Produkten pflegen. Das ist bei der Serie 4900 nun nicht mehr zu erwarten. Wer einen Rechner damit noch aufrüsten oder von 3900 auf 4900 umsteigen will, sollte das bald tun, denn irgendwann werden die älteren CPUs als Neuware rar und teuer. Ein aktuelles gutes Beispiel noch für X79-Boards ist der Xeon E5-2650 v2 mit acht Kernen bei 2,6 bis 3,4 GHz. Dafür muss das Board aber eine passende Firmware besitzen. Übertakter, die sich ihr Technikspielzeug etwas kosten lassen, haben ohnehin kaum eine Wahl als den 5960X, denn andere Achtkerner mit offenem Multiplikator gibt es sonst in diesen Leistungsdimensionen nicht.

Dass beim Start einer neuen Speichergeneration wie jetzt mit DDR4 die Produktauswahl so groß ist, stellt ebenfalls ein Novum dar. Da aber bisher fast ausnahmslos auf Overclocker zugeschnittene Module erhältlich sind, sind die Preise entsprechend hoch. Schon in einigen Wochen dürfte sich das ändern, wenn die DIMMs für Xeons verfügbar werden – dann ist auch viel Speicher zu Preisen von DDR3 zu erwarten.  (nie)

 

Original:

http://www.golem.de

Neues – Apple will mit großer Show zurück auf den Innovations-Olymp

Categories: Apple
Tags: , ,
Comments: Comments Off
Published on: September 9, 2014

Neue größere iPhones, ein Handy-Bezahlsystem, die seit langem erwartete Computeruhr – wenn die Gerüchte stimmen, steht Apple vor einem großen Sprung. Für Konzernchef Tim Cook schlägt mit der Präsentation am nächsten Dienstag die Stunde der Wahrheit: Es werden die ersten Geräte gezeigt, die komplett in seiner Zeit an der Apple-Spitze entwickelt wurden.

In den Fußstapfen von Steve Jobs

Vor allem an der Computeruhr würde gemessen, ob Cook die Fußstapfen seines legendären Vorgängers Steve Jobs ausfüllen konnte. Es wäre der erste Vorstoß von Apple in eine neue Produktkategorie seit dem iPad-Tablet vor über vier Jahren.

Wie vor jedem Apple-Event überschlagen sich die Gerüchte. Die beiden iPhones sollen mit Display-Diagonalen von 4,7 und 5,5 Zoll erstmals so groß wie die meisten Smartphones mit dem Google-System Android werden. Mit dem Bezahldienst solle man in Läden einfach sein iPhone an das Kassengerät halten können und den Betrag über dessen Fingerabdruck-Sensor statt per PIN oder Unterschrift bestätigen. Die Uhr kommt wohl in zwei Größen und soll neben Gesundheits-Sensoren ebenfalls den NFC-Funk unterstützen, auf dem der iPhone-Bezahldienst aufbaut. Nach Informationen des gut verdrahteten Blogs “9to5Mac” lässt Apple andere Online-Dienste bereits Apps für die Uhr entwickeln, darunter sei Facebook.

Die Messlatte für das kommende Event liegt also hoch

Apple betreibt für das Event noch mehr Aufwand als bei den bisherigen Produkt-Vorstellungen und setzt dabei auch auf Symbole. Tim Cook und sein Team werden nämlich im Flint Theater in Cupertino auftreten, in dem Firmengründer Jobs vor 30 Jahren den ersten Mac-Computer vorstellte. Damals wurde erstmals ein modernes Benutzungskonzept für PCs mit Maus und grafischer Oberfläche für den Massenmarkt eingeführt, das heute noch Gültigkeit hat. Die Messlatte für das kommende Event liegt also hoch. Neben dem Flint Theater wurde ein riesiges weißes Gebäude ohne Fenster aufgebaut. Was drin ist, weiß man nicht. Auf der Website läuft ein Countdown zur Live-Übertragung.

Apple will sich in der öffentlichen Meinung die Rolle des Innovators zurückholen. Über Geld muss sich der Konzern angesichts der steten Flut von Milliardengewinnen und über 160 Mrd. Dollar (123,6 Mrd. Euro) auf der hohen Kante zwar keine Gedanken machen. Aber seine Rivalen Google und Samsung werden von manchen Beobachtern und vielen Kunden als die innovativeren Unternehmen wahrgenommen.

Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen

Google experimentiert mit Datenbrillen, selbstfahrenden Autos, Kurier-Drohnen. Und sein Android dominierte den Smartphone-Markt zuletzt mit einem Rekordanteil von fast 85 Prozent. Samsung ist zum größten Smartphone-Hersteller der Welt zwar vor allem mit seinen günstigen Modellen geworden, aber seine Spitzenmodelle wie das Galaxy S5 spielen in der iPhone-Klasse. Zudem beeilte sich Samsung, schon ein Jahr vor Apple mit seiner ersten Computeruhr vorzupreschen. Die ersten Geräte hatten noch Macken und wurden am Markt recht kühl aufgenommen. Bei den neuen Modellen wurden die Rezensionen besser, wie bei der auf der IFA gezeigten Gear S mit Mobilfunk-Anbindung.

Und auch deshalb sind die Erwartungen in eine Apple-Uhr so hoch. In den vergangenen Wochen und Monaten kam zwar eine Flut von Modellen diverser Hersteller auf den Markt. Aber die weitaus meisten hinterlassen das Gefühl, das Konzept ist noch deutlich verbesserungsfähig bei Laufzeit, Bedienung und Design. Kann Apple nach iPhone und iPad-Tablet auch in dieser Kategorie einen Maßstab setzen?

“Die Schweiz hat ein Problem”

Die Uhr gehört zu Apples bisher ambitioniertesten Projekten. “Die Schweiz hat ein Problem”, zitiert die “New York Times” Apples Designchef Jony Ive unter Berufung auf Insider. Allerdings wird auch erwartet, dass eine eventuelle “iWatch” voraussichtlich erst im nächsten Jahr auf den Markt kommt, auch wenn sie schon jetzt vorgestellt werden sollte. Dafür spricht auch, dass auf keiner Gerüchte-Website bisher ein glaubwürdig aussehendes Foto der Apple-Uhr erschienen ist – während längst Bilder aus den Fabriken in Asien ihren Weg in die Öffentlichkeit gefunden haben, die mit hoher Wahrscheinlichkeit die neue iPhone-Generation zeigen.

Tim Cook führt Apple anders als Jobs. Er überlässt seinen Managern mehr Verantwortung und geht schwierige Themen wie den Umweltschutz oder die Arbeitsbedingungen in China. Als zuletzt aus Apple-Profilen gestohlene Nacktfotos von Prominenten im Internet auftauchten, versprach Cook in einem Interview bessere Sicherheitsvorkehrungen. Zugleich betonte er aber auch, dass Apples Systeme technisch gesehen nicht aufgeknackt worden seien. Vor dem Start eines Bezahldienstes kann sich Apple keine Zweifel der Verbraucher leisten.

Die Börse bedachte Apple diesmal mit Vorschuss-Lorbeeren. Die Aktie markierte ein Rekordhoch mit 103,74 Dollar, auch wenn der Kurs danach etwas nachgab. Apple bestellte laut Medienberichten als Startauflage 80 Millionen iPhones – mehr als bei jeder Generation zuvor. (APA, 8.9. 2014)

 

Quelle:

http://derstandard.at

Urheberrecht: E-Book-Anbieter dürfen Weiterverkauf von Dateien untersagen

Categories: Ebooks
Comments: Comments Off
Published on: September 9, 2014

Urheberrecht

Was für Software gilt, gilt noch lange nicht für andere digitale Waren. Bei E-Books und Hörbüchern darf der Weiterverkauf von Downloads untersagt werden.

Anbieter von E-Book- und Hörbuch-Downloads dürfen den Weiterverkauf der Dateien untersagen. Ein entsprechendes Urteil des Oberlandesgerichts (OLG) Hamm vom Mai 2014 ist jetzt rechtskräftig geworden. Wie der Bundesgerichtshof in Karlsruhe am Donnerstag bestätigte, nahm der Verbraucherzentrale Bundesverband e.V. seinen Einspruch gegen die Entscheidung des OLG, eine Revision nicht zuzulassen, zurück. Die Verbraucherzentrale hatte gegen den Online-Händler buch.de geklagt, der das Verbot des Weiterverkaufs in seinen Allgemeinen Geschäftsbedingungen verankert hat. (BGH AZ: I-ZR 120/14, OLG Hamm AZ: 22 U 60/13)

Das nun rechtskräftige Urteil sei ein wichtiges, positives Signal, hieß es in einer Mitteilung des Börsenvereins des Deutschen Buchhandels. Die Entstehung eines “Gebrauchtmarktes” für E-Books und Hörbücher könne weder im Sinne der Autoren, Verlage und Händler noch der Kunden sein. Der Primärmarkt für digitale Inhalte würde in einem solchen Fall völlig zusammenbrechen. “Im Gegensatz zu gedruckten Büchern können digitale Bücher praktisch unendlich vervielfältigt und weitergegeben werden, zudem nutzen sie sich nicht ab. Welchen Grund gäbe es, das Original zu kaufen, wenn es eine riesige Auswahl identischer, aber günstigerer Kopien gibt?”, fragte der Börsenverein.

Software ist ein spezieller Fall

Ebenso hatte das OLG Hamm argumentiert. Nach Ansicht der Richter unterliegen aus dem Internet heruntergeladene Audio-Dateien und deren Kopien der Regelung von Paragraf 19 des Urheberrechtsgesetzes. Demnach bleibt das “Recht der öffentlichen Zugänglichmachung” auch nach dem Download beim Urheber. Anders als bei gedruckten Büchern oder CDs ende das Verbreitungsrecht des Urhebers nicht mit dem Verkauf, urteilten die Richter.

Der Gesetzgeber unterscheide zudem bewusst zwischen Computerprogrammen und anderen digitalen Dateien. Beim entsprechenden Paragrafen 69a-g des Urheberrechtsgesetzes handele es sich “um eine ganz spezielle, maßgeschneiderte Lösung exakt für und nur für Computerprogramme …, die nicht analogiefähig ist und es auch nicht sein soll”. Die Entscheidung des EuGH (C 128/11), wonach Software ohne Zustimmung des Herstellers weiterverkauft werden darf, betreffe Software und nicht andere digitale Produkte, insbesondere nicht Multimediadateien, speziell Hörbücher. “Ausgehend von den vorstehenden Ausführungen lassen sich die Spezialregelungen für Software nicht generalisieren”, schrieb das Gericht.  (fg)

 

www.golem.de/news/urheberrecht-e-book-anbieter-duerfen-weiterverkauf-von-dateien-untersagen-1408-108879.html

www.golem.de/

Angelbird SSD wrk: SSD aus Österreich will sich einen Namen machen

Categories: Hardware
Tags: ,
Comments: Comments Off
Published on: September 8, 2014

Die nagelneue Angelbird SSD wrk soll ein Wolf im Schafspelz sein, wenn man der Gerüchteküche glaubt: Die mit Kapazitäten von bis zu 512 GByte erhältliche 7-mm-SSD kommt als Einsteiger-Laufwerk daher, soll aber sehr performant sein. Wir haben nachgemessen.

Der österreichische Hersteller Angelbird bringt mit der Angelbird SSD wrk eine neue Serie preisgünstiger Einsteiger-SSDs an den Start. Die in den drei Kapazitäten 128, 256 und 512 GByte erhältlichen, nur sieben Millimeter flachen 2,5-Zoll-Laufwerke sind jeweils in ein schickes Gehäuse aus gebürstetem Aluminium gehüllt und offiziell zu Preisen von gerundet 90, 150 und 290 Euro zu haben.

In deutschen Preisvergleichsdiensten wie Geizhals werden sie bisher aber nur im Ausland (wenig überraschend: Österreich) gelistet; es gibt derzeit (25. August) anscheinend noch keinen deutschen Vertrieb.

 

Trotz Einsteiger-Etikett soll die mit einem sechs GBit/s schnellen SATA-Interface ausgestattete Angelbird SSD wrk durch eine hohe Performance überzeugen, die aktuellen Top-SSDs wie der Crucial M550, Samsung 840 Pro und 840 Evo oder Toshiba Q Pro in nichts nachsteht.

Angetrieben vom Silicon-Motion-Controller 2246EN und synchronem MLC-Flashspeicher von Micron bringen es die flachen SSDs laut Angelbird auf eine sequenzielle Leseleistung von bis zu 563 MByte/s. Beim sequenziellen Schreiben sollen bis zu 450 MByte/s möglich sein, bei den I/O-Operationen pro Sekunde sind es maximal 72.000 IOPS.

Was das 512 GByte fassende Spitzenmodell Angelbird SSDWRK512 leistet, haben wir im Testlabor ermittelt. Soviel vorweg: Angelbird hat nicht zuviel versprochen und eine richtig schnelle SSD herausgebracht.

 

Software-Ausstattung

Für die SSDs der wrk-Serie beitet Angelbird übrigens ein kleines Softwarepaket an. Das liegt dem Laufwerk zwar auf einer CD oder DVD bei, steht aber auch auf der Homepage des Herstellers zum Download bereit. Um die Tools herunterladen zu können, muss man zuvor einen Account erstellen und dabei die eigene SSD registrieren.

Zum Testzeitpunkt kann man die folgende Software herunterladen: Windows-Nutzer dürfen sich übe eine Vollversion der Sicherungssoftware System Reflection Backup Professional freuen, während Mac-User Parallels Desktop 9 herunterladen und damit Windows-Programme flüssig auf ihrem Apfel-Rechner laufen lassen, solange diese nicht allzuviel Leistung beanspruchen.

Den Multimedia-Bereich auf dem Download-Portal will Angelbird noch weiter ausbauen. Derzeit finden sich dort mit puremix Compression und puremix Gearfest 2012 Video-Tutorials zum Thema Musik.

Technische Daten

Angelbird wrk (512 GByte)


Serial ATA 6 Gb/s SSD

Angelbirds 512 GByte große Version der ‘wrk’ getauften SSD-Baureihe für preisbewusste Anwender sorgt im Test für solide Messwerte. Einzig die Ergebnisse bei den 4 KByte Random Reads/Writes ziehen die ansonsten schnelle wrk in der Gesamtwertung etwas herunter.

Technische Daten

Modellnummer :SSDWRK512

Formfaktor :2,5 Zoll, 7mm Bauhöhe

Schnittstelle :SATA 6 Gb/s

Controller :Sillicon Motion 2246EN

NAND-Typ :MLC (synchron), Micron (20 nm)

Cache :512 MByte (DDR3-1600)

Kapazität :512 GByte

weitere Kapazitäten :128, 256 GByte

Over-Provisioning :ca. 7%

Haltbarkeit (TBW/MTBF) :- / 2 Mio. Stunden

Geschwindigkeit (Lesen/Schreiben) :563 / 450 MByte/s

IOPS :72.000 (Schreiben)

Garantie :3 Jahre

Besonderheiten :Overload protection, TRIM, ECC, EMS , SMART

Testkonfiguration Performance-Messungen

System-Hardware
Prozessor: Intel Core i5-2500K (32 nm, Sandy Bridge, D2), 4C/4T, 3.3 GHz, 4x 256 KByte L2-Cache, 6 MByte L3-Cache, HD Graphics 3000, 95 Watt TDP, 3.7 GHz max. Turbo
Motherboard
(Sockel 1155):
Gigabyte Z68X-UD3H-B3, Revision: 0.2, Chipset: Intel Z68, BIOS: F3
Arbeitsspeicher: Corsair TR3X6G1600C8D, 2x 2 GByte DDR3-1333
System-SSD: Intel X25-M G1, 80 GByte, Firmware 0701, SATA (3 GBit/s)
Controller: Intel PCH Z68, SATA/600
Netzteil: Seasonic X-760, 760 Watt, SS-760KM, Active PFC F3
Benchmarks
Performance-Messungen: h2benchw 3.16
PCMark 7 1.0.4
I/O-Performance: IOMeter 2006.07.27
Fileserver-Benchmark
Webserver-Benchmark
Database-Benchmark
Workstation-Benchmark
Streaming Reads
Streaming Writes
4K Random Reads
4K Random Writes
System-Software & Treiber
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1030
Intel Rapid Storage: 10.5.0.1026

Testkonfiguration Messungen Leistungsaufnahme

System-Hardware
Prozessor: Intel Core 2 Extreme X7800 (65 nm, Merom XE, E1), 2C/2T, 2.6 GHz, 4 MByte L2-Cache, 44 Watt TDP
Motherboard (Sockel 478): MSI Fuzzy GM965, Revision: 1.0, Chipset: Intel GM965, BIOS: A9803IMS.220
Arbeitsspeicher: Crucial BallistiX CM128M6416U27AD2F-3VX, 2x 1 GByte DDR2-666
System-HDD: Western Digital WD3200BEVT, 320 GByte, SATA (3 GBit/s), 5400 U/min
Controller: Intel ICH8-ME
Netzteil: Seasonic X-760, 760 Watt, SS-760KM, Active PFC F3
Benchmarks
Video-Playback: VLC 1.1.1
Big_Buck_Bunny_1080p
I/O-Performance: IOMeter 2006.07.27
Database-Benchmark
Streaming Writes
System-Software & Treiber
Betriebssystem: Windows 7 x64 Ultimate SP1
Intel Inf: 9.2.0.1021
Intel Graphics: 15.12.75.4.64

 

Die Homepage besuchen:

http://www.tomshardware.de/angelbird-wrk-ssd-mlc-trim,testberichte-241623.html

Windows Store: Nutzer kritisieren Microsofts Vorgehen gegen Fake-Apps

Categories: Unternehmen
Comments: Comments Off
Published on: September 3, 2014

Windows Store

Microsoft hat innerhalb von rund drei Monaten 1.500 sogenannte Fake-Apps aus dem Windows Store entfernt. Das klingt erst einmal viel, aber weiterhin enthält der Store viele fragwürdige App-Titel. Nutzer kritisieren das halbherzige Vorgehen von Microsoft.

Sie nerven und stören: Fake-Apps. Vor allem im Windows Store und auch im Windows Phone Store ist Microsoft dagegen vorgegangen und hat einige solcher Fake-Apps entfernt. Dabei handelt es sich um Einträge, die etwa die Bezeichnungen bekannter Apps kopieren und die Nutzer so in die Irre führen. Beispiele hierfür sind VLC, Youtube, Firefox, iTunes oder Ähnliches. Die Fake-Apps kosten oftmals Geld – die eigentlichen Originale sind hingegen kostenlos zu bekommen.

Mitte Mai 2014 hatte Microsoft verkündet, gegen derartige Fake-Apps vorgehen zu wollen. In den vergangenen drei Monaten hat Microsoft nun nach eigener Aussage 1.500 solcher Apps aus dem Windows Store entfernt. Allerdings kritisieren Nutzer, dass weiterhin viele Einträge im Windows Store vorhanden sind, die Markennamen und Logos anderer Apps verwenden. Eine exemplarische Suche nach Youtube veranschaulicht das existierende Problem.

Käufer von Fake-Apps bekommen Geld zurück

Wer sich eine Fake-App gekauft hat, kann sich an den Microsoft-Support wenden und soll das Geld zurückerhalten. Für die Käufer einer Fake-App könnte es schwierig sein zu erkennen, ob sie zu den Betroffenen zählen. Microsoft hat keine Liste der 1.500 entfernten Apps veröffentlicht, die Betroffenen helfen könnte. Es ist nicht bekannt, ob Microsoft die Käufer der betreffenden Produkte direkt informiert.

Unter Microsofts aktuellem Blog-Posting zur Löschaktion bemängeln Nutzer ein halbherziges Vorgehen gegen Fake-Apps. Sie berichten, dass Microsoft vielfach nicht angemessen auf gemeldete Verstöße reagieren würde. Wenn Microsoft auf Fake-Apps hingewiesen werde, erhalten sie die Antwort, sich an den App-Entwickler zu wenden. Der Hüter des Windows Stores selbst wird erst einmal nicht aktiv.

Microsofts Dilemma

Microsofts Dilemma ist weiterhin offensichtlich. Einerseits möchte Microsoft, dass sowohl im Windows Store als auch im Windows Phone Store möglichst viele App-Titel aufgelistet sind. Auf der anderen Seite sorgen Fake-Apps dafür, dass der Store unnötig unübersichtlich ist und eine Vielfalt vorgaukelt, die nicht gegeben ist. Das könnte das bisher zögerlich erscheinende Vorgehen von Microsoft erklären. Der Hersteller will die Menge der Einträge im Windows Store offenbar nicht zu sehr verringern.

Ein Kommentator fasst das Problem zusammen: Er unterstellt Microsoft, dass das Unternehmen bis Mai 2014 mit Freude und Begeisterung solche Fake-Apps durchgewunken habe. Falls das nicht stimme, sei es ein Indiz für eine bisherige fahrlässige Prüfung der App-Einreichungen.

Die nächsten Monate werden zeigen, ob Microsoft nun entschiedener gegen Fake-Apps im Windows Store vorgeht. Es wäre zu wünschen, denn unterm Strich werden es die Kunden des Stores zu schätzen wissen, wenn Suchergebnisse die passenden Treffer liefern. Derzeit ist es bei populären Apps noch immer so, dass bei einer Suche danach stattdessen Produkte mit zweifelhaftem Nutzen erscheinen.

 

Link zum Artikel:

www.golem.de/

Youtube und Google+: Google schafft Klarnamenzwang ab

Categories: Internet Business
Tags: ,
Comments: Comments Off
Published on: August 10, 2014

So wie Facebook wollte auch Google die Mitglieder seines sozialen Netzwerks zwingen, ihre echten Namen zu benutzen. Nach einer Lockerung der Regelung vor zwei Jahren verzichtet Google jetzt ganz auf den Klarnamenzwang und entschuldigt sich.

In einem unerwarteten Schritt hat Google für Google+-Benutzerkonten den Klarnamenzwang sowie bisherige Verifizierungsmodalitäten für Pseudonyme abgeschafft. Ab sofort sind Nutzer bei der Wahl ihrer Namensangaben im Profil völlig frei, wie das Unternehmen auf Google+ verkündet.

Überraschend ist der Schritt, weil die Debatte über Sinn und Unsinn der Erforderlichkeit des Klarnamens bei Google+ schon drei Jahre zurückliegt. Damals waren Google selbst und leidenschaftliche Nutzer seiner kurz zuvor eingeführten, alle Google-Dienste vernetzenden “soziale Ebene” voller Hoffnung.

Mittlerweile ist Google+ die Puste ausgegangen. Auch, weil aus Unternehmenssicht eine wichtige Aufgabe von Google+ abgeschlossen wurde, nämlich die Vereinheitlichung der Benutzerkonten zur besseren, effektiveren Werbevermarktung und Nutzerdatenanalyse. Dass der Konzern selbst keine großen Ambitionen mehr für Google+ hat, zeigt die Abwesenheit seiner Erwähnungen auf der jüngst abgehaltenen Google-Entwicklerkonferenz I/O. Der “Vater” des Projekts, Vic Gundrota, verließ das Unternehmen jüngst.

Anfang 2012 hatte Google zwar schon Pseudonyme erlaubt und damit seine “Gebrauchsnamenpflicht”, wie das Unternehmen es selbst nannte, etwas aufgeweicht. Doch Kritikern ging der Schritt nicht weit genug, zumal er erheblichen Einschränkungen unterlag.

Die jetzige Entscheidung zur Abschaffung des Klarnamenzwangs begründet Google mit dem Streben nach einem alle Menschen inkludierenden Ort. Das Unternehmen entschuldigt sich auch gleich noch bei allen Personen, die sich bislang durch den Zwang zur Angabe ihres vollen Namens ausgegrenzt fühlten.

Ein Schritt, um Youtube-Nutzer zu besänftigen?

Der Schritt, ausgeführt zum Höhepunkt des medialen Sommerlochs, im Urlaubsmonat Juli kurz nach Abschluss der Fußballweltmeisterschaft, wirkt schon etwas kurios. Als Reaktion auf die einstigen Proteste gegen Googles sture Haltung kann der Entschluss aufgrund der seitdem vergangenen Zeit kaum gewertet werden. Und ganz ohne Begrenzungen kommen die Namensrichtlinien auch weiterhin nicht aus: Auf der Hilfeseite, die während einer Namensänderung verlinkt wird, informiert Google darüber, dass nach einer Modifizierung bis zu drei Monate lang keine weiteren Änderungen möglich sind.

Unterm Strich lässt sich die Neuigkeit, so nebensächlich sie für viele Anwender auch klingen mag, dennoch als Strategiewechsel bezeichnen. Google scheint nicht länger um jeden Preis die namentliche Identität der Nutzer in Erfahrung bringen zu wollen. Sei es, weil für die gezielte Anzeigenauslieferung ohnehin hinreichend Datenpunkte über jeden einzelnen Google-Nutzer vorhanden sind. Oder vielleicht, weil das Unternehmen doch noch einmal versuchen möchte, Google+ einen Push zu geben – und das dieses Mal über eine Differenzierung vom Hauptwettbewerber Facebook, nicht als “Me too”-Produkt.

Vielleicht geht es aber auch nur darum, Kritiker der unpopulären Implementierung von Google+ als Kommentarmodul bei Youtube zu besänftigen: Seit November ist ein Profil bei Google plus nötig, um Youtube-Videos zu kommentieren – was unter Youtube-Nutzern einigen Ärger erregt hat. Und anders als das aktuelle Google+ ist Youtube für Google wichtig.

Vermutlich ist die Maßnahme nur der erste von mehreren Teilschritten, mit denen Google+ in den nächsten Monaten umgebaut, in den Hintergrund gerückt oder für einen Relaunch fit gemacht wird. Denn in der aktuellen Form erfüllt das Produkt für Google keine bedeutende Rolle (mehr).

 

Ursprünglich veröffentlicht:

www.golem.de/news/

Soziales Netzwerk: Google Orkut wird begraben

Categories: Google
Tags: ,
Comments: Comments Off
Published on: Juli 19, 2014

Orkut schließt seine Pforten

Das soziale Netzwerk Orkut ist älter als Facebook. Doch außerhalb von Brasilien und Indien war der Dienst nie sonderlich populär. Zugunsten von Google+ zieht Google nun einen Schlussstrich.

Bereits kurz vor Facebook und lange vor Google+ gründete Google mit Orkut sein erstes eigenes soziales Netzwerk: Orkut. Benannt wurde es nach dem Entwickler Orkut Buyukkokten. Hierzulande spielte es kaum eine Rolle, war vielen sogar gänzlich unbekannt, so dass man es hierzulande durchaus als Flop bezeichnen konnte. In Indien und Brasilien aber war es überaus populär. Mit dem Start von Google+ drängte Google die Orkut-Nutzer dazu, zum neuen Netzwerk und Facebook-Rivalen zu wechseln. Der nächste Schritt auf dem Weg ins Grab erfolgte Ende 2012, als es der Stopp neuer Features für Orkut angekündigt wurde. Nun hat Google angekündigt, die Pforten des sozialen Netzwerks am 30. September 2014 zu schließen. Nach dem Ende von Quickoffice ist das schon die zweite Schließungsmeldung aus Mountain View in dieser Woche.
Als Begründung für das Aus von Orkut wird das starke Wachstum von Youtube, Blogger und Google+ angegeben. Deren Communities würden das Orkut-Wachstum in den Schatten stellen. Google will seine Kräfte auf die anderen Projekte konzentrieren, heißt es im Orkut-Blog.

 

Zwar wird Orkut am 30. September begraben, doch noch bis September 2016 sollen die Nutzer noch Zeit haben, ihre Fotoalben und Profile zu exportieren. Das funktioniert über Google Takeout auf dieser Webseite. Nach dem 30. September wird man sich jedoch nicht mehr in Orkut einloggen können und Fotoalben von dort nicht mehr nach Google+ umziehen können. Wichtig: Wer eigene (öffentliche) Postings nicht für die Ewigkeit konservieren möchte, sollte diese bis Ende September löschen. Denn anschließend werden sie archiviert. Das komplette Orkut-Profil können Sie über www.google.com/settings/datatools und “Produkte löschen” entfernen.
 
Zuerst erschienen auf:

Deutscher Tablet-Markt wächst 2014 voraussichtlich um 15 Prozent

Categories: Pads
Tags:
Comments: Comments Off
Published on: Juli 18, 2014

Im laufenden Jahr werden in Deutschland voraussichtlich erstmals mehr als neun Millionen Tablets verkauft werden. Wie der Branchenverband Bitkom auf Basis aktueller Prognosen des European Information Technology Observatory (EITO) schätzt, steigt der Absatz auf 9,2 Millionen Stück. Das entspräche einem Plus gegenüber dem Vorjahr von 15 Prozent. Verglichen mit den 2,3 Millionen Tablets, die im Jahr 2011 verkauft wurden, wäre es sogar eine Vervierfachung.

 

Der Umsatz wächst der EITO-Prognose zufolge allerdings nur noch um rund 5 Prozent auf 2,5 Milliarden Euro. Schon 2013 hatte das Tablet-Geschäft mit einem Absatzplus von 52 Prozent auf 8 Millionen Stück und einem Umsatzanstieg um 36 Prozent auf 2,4 Milliarden Euro neue Rekordwerte erreicht. “Tablet Computer haben sich etabliert und legen auf dem erreichten hohen Niveau weiter zu”, sagte Bitkom-Präsident Dieter Kempf.

Dass das Umsatzwachstum mit dem Geräteverkauf nicht Schritt halten kann, liegt dem Branchenverband zufolge an dem sich verschärfenden Preiswettbewerb, der inzwischen auch den Tablet-Markt erreicht hat. Lag der Durchschnittspreis pro Tablet vor drei Jahren noch bei mehr als 400 Euro so werden es in diesem Jahr weniger als 275 Euro sein.

“Für die Kunden sind das gute Nachrichten. Sie haben die Wahl zwischen einer Vielzahl von Modellen in unterschiedlichen Größen, Leistungsmerkmalen und auch Preisen”, so Kempf.

Außer für Tablets interessieren sich die Deutschen auch zunehmend für Datenbrillen wie Google Glass. Laut einer vom Marktforschungsinstitut Aris im Auftrag des Bitkom durchgeführten Umfrage, kann sich fast jeder Dritte (31 Prozent) vorstellen, sogenannte Smart Glasses zu nutzen. Das entspricht 22 Millionen Bundesbürgern. 13 Prozent der 1004 Befragten ab 14 Jahren gaben sogar an, auf jeden Fall solch eine Brille nutzen zu wollen.

 

“Der Start von Google Glass in den USA hat das Interesse an smarten Brillen auch in Deutschland messbar gesteigert”, sagt Bitkom-Experte Timm Hoffmann. Insgesamt sind Smart Glasses hierzulande deutlich bekannter geworden. Fast die Hälfte aller Deutschen (48 Prozent) hat schon davon gehört, im Vorjahr war es erst rund ein Viertel (27 Prozent).

Smart Glasses können Informationen wie E-Mails oder Navigationshinweise direkt ins Sichtfeld einblenden und erlauben es, Fotos und Videos aus dem Blickwinkel des Trägers aufzunehmen. Der Umfrage zufolge interessieren sich mehr Frauen als Männer für solche Brillen. Jede dritte Frau (33 Prozent) kann sich vorstellen, eine Datenbrille zu tragen. Bei den Männern fällt der Anteil mit 29 Prozent etwas geringer aus.

Leichte Unterschiede gibt es auch in den Altersklassen. 39 Prozent der 14- bis 29-Jährigen geben an, künftig smarte Brillen nutzen zu wollen. Bei den 30- bis 49-Jährigen sind es 33 Prozent und bei den 50- bis 60-Jährigen 34 Prozent. Bei Personen über 65 Jahren ist das Interesse an der neuen Technik mit 19 Prozent deutlich geringer.

 

 

Die Homepage besuchen:

www.zdnet.de/88196190

Win XP: dreizehn Jahre lang und bisher ist kein Ende abzusehen

Categories: Software
Comments: Comments Off
Published on: Juli 1, 2014

Ein nicht wirklich alter PC (ca. drei Jahre alt) benötigte eine Auffrischung. Ursprünglich lief auf dem Rechner Windows XP, für das aber der Support von Microsoft beendet wurde und deshalb der Rechner auf Windows 7 umgerüstet werden sollte. Im April 2014 hat Microsoft die Unterstützung für Windows XP eingestellt, was bedeutet, dass ab diesem Zeitpunkt keine Updates mehr für das Betriebssystem bereitgestellt werden. Es ist nicht ratsam, nach Beendigung des Supports noch sehr lange Windows XP zusammen mit dem Internet zu nutzen. Windows Updates sind in den überwiegenden Fällen Sicherheitsupdates. Nach wie vor werden Sicherheitslücken in den Betriebssystem entdeckt, die aber nicht ursprünglich darin enthalten waren, sondern die sich durch neue Technologien und zusätzlichen Programmen einfach ergeben und es ist verständlich das Microsoft nach nunmehr 13 Jahren, die es Windows XP gibt, kein weiteres Geld für die Entwicklung von Updates ausgeben möchte. Auch wenn immer noch 25 % der Internetnutzer mit Windows XP ins Netz gehen, wird sich das dieses Jahr 2014 erheblich ändern. Man ist förmlich gezwungen, auf Windows 7 unter Windows 8 umzusteigen, wenn selbst die beste Sicherheitssoftware und die besten Antivirenscanner ziemlich nach Lage, Angriffe auf neue Sicherheitslücken abzuwehren. In Deutschland sieht man vor allem in sehr kleinen oder kleinen Firmen immer noch viele Rechner mit Windows XP. Viele dieser Computer können nicht mehr auf Windows 7 umgerüstet werden bzw. würde eine Umrüstung nahezu genauso viel kosten wie eine Neuanschaffung. Meiner Erfahrung nach ist es noch nicht so vielen Firmeninhabern bewusst, dass an dieser Stelle in diesem Jahr eine hohe Ausgabe fällig ist. Bin mir sicher, dass sowohl Microsoft als auch die Computerhersteller das spüren werden. Das wird dem ohnehin Not leidenden Hardwaremarkt speziell bei den herkömmlichen PCs und Laptops gut tun. Mittlerweile ist er sogar schon so, wie mir mein Laptop Hilfe Berlin Mein PC wieder ok verraten hat, dass Microsoft langsam Windows 7 aus dem Markt nehmen möchte, um Windows 8 zu propagieren. Aber auch um Windows 7 nicht so lange laufen zu lassen wie weiland Windows XP, denn das würde auch bedeuten eine so lange Zeit Support anbieten zu müssen. Wobei Windows 8 immer noch kein Publikumsliebling geworden ist, tritt Microsoft das Betriebssystem, das sicherlich einige Designschwächen hat, mit allen Mitteln den Markt.

Kundenbefragung: Sicherheitssoftware für Unternehmen / Schutzfunktion im Fokus der Kritik – Kaspersky auf Platz eins vor IBM und Symantec

Categories: Sicherheit
Comments: Comments Off
Published on: Juni 25, 2014

Gehackte E-Mail-Accounts, Malware oder IT-Spionage – angesichts publik gewordener Fälle von Sicherheitslücken sind die Gefahren durch Trojaner und andere digitale Schädlinge mehr denn je in aller Munde. Der Schutz vor Computerkriminellen, die danach trachten, ganze Firmennetze lahmzulegen, steht daher ganz oben auf der Aufgabenliste der Entscheider in den Unternehmen. Zuverlässige Sicherheitssoftware ist dabei ein Muss. Aber welcher Anbieter von Security-Programmen bietet qualitativ hochwertige Produkte? Und welcher Hersteller überzeugt durch eine ausgeprägte Kundenorientierung sowie ein gutes Preis-Leistungs-Verhältnis? Das Deutsche Institut für Service-Qualität ermittelte in einer Befragung im Auftrag des Wirtschaftsmagazins “Markt und Mittelstand” die Zufriedenheit von IT-Entscheidern mit sechs bedeutenden Anbietern für Sicherheitssoftware.

Insgesamt schnitt die Branche sehr gut ab. Rund 81 Prozent der IT-Entscheider lobten die geringe Ausfallquote der Programme und waren der Ansicht, dass das Portfolio des Software-Unternehmens ihre Bedürfnisse abdeckt. Mehr als drei Viertel der Befragten gaben zudem an, dass sich die Mitarbeiter nur selten über die Security-Programme beschweren.

In einem entscheidenden Punkt zeigte sich allerdings Verbesserungspotenzial: “Mit der Schutzfunktion der eingesetzten Software war gut ein Fünftel der Befragten nicht vorbehaltlos zufrieden oder sogar unzufrieden”, kritisiert Markus Hamer, Geschäftsführer des Deutschen Instituts für Service-Qualität. Zudem waren nur knapp 70 Prozent der Teilnehmer der Meinung, dass die Konditionen und das Preis-Leistungs-Verhältnis der Software-Anbieter in Ordnung seien. Updates für die eingesetzte Software stellten die Hersteller laut gut drei Viertel der Befragungsteilnehmer zuverlässig zur Verfügung. Verbesserungswürdig war auch die Beratungsleistung der Software-Firmen: Weniger als 75 Prozent der befragten IT-Entscheider waren mit der Beratung durch die Hersteller vorbehaltlos zufrieden.

Den ersten Rang erreichte Kaspersky. In den Kategorien Leistung, Angebot und Produkte überflügelte dieser Anbieter die Wettbewerber in der Gunst der befragten Kunden. Sehr gut schnitt Kaspersky auch im entscheidenden Punkt ab – der Schutzfunktion der Software. Das exzellente Preis-Leistungs-Verhältnis rundete das hervorragende Resultat ab. Der Zweitplatzierte IBM tat sich nach Meinung der Befragten vor allem durch seine ausgeprägte Kundenorientierung hervor. Die Teilnehmer honorierten jedoch auch die verlässliche Leistung der Software und das sehr gute Angebot. Symantec wurde Dritter. Zu den Stärken dieser Firma zählte das stimmige Gesamtangebot aus sehr guten Konditionen und umfangreichem Portfolio.

Für die Untersuchung zur Zufriedenheit von Unternehmen mit Anbietern von Sicherheitssoftware wurden 150 Entscheider telefonisch zu sechs bedeutenden Herstellern befragt. Mit der Kundenbefragung beauftragte das Deutsche Institut für Service-Qualität den Feldspezialisten Krämer Marktforschung. Im Mittelpunkt der Befragung standen die Meinungen zu den Bereichen Leistung, Angebot, Produkte und Kundenorientierung.

Das Deutsche Institut für Service-Qualität (DISQ) verfolgt das Ziel, die Servicequalität in Deutschland zu verbessern. Das Marktforschungsinstitut mit Sitz in Hamburg führt zu diesem Zweck unabhängige Wettbewerbsanalysen, B2B-Studien und Kundenbefragungen durch. Rund 1.500 geschulte Tester sind in ganz Deutschland im Einsatz. Die Leitung der Forschungsprojekte, bei denen wissenschaftlich anerkannte Methoden und Service-Messverfahren zum Einsatz kommen, obliegt einem Team aus Soziologen, Ökonomen und Psychologen. Dem Kunden liefert das Institut wichtige Anhaltspunkte für seine Kaufentscheidungen. Unternehmen gewinnen wertvolle Informationen für das eigene Qualitätsmanagement. Das Deutsche Institut für Service-Qualität arbeitet im Auftrag von renommierten Print-Medien und TV-Sendern; Studien für Unternehmen gehören nicht zum Leistungsspektrum des DISQ.

Veröffentlichung nur unter Nennung der Quelle: Deutsches Institut für Service-Qualität im Auftrag von "Markt und Mittelstand" 

Pressekontakt:

Markus Hamer Fon: +49 (0)40 / 27 88 91 48 - 11 Mobil: +49 (0)176 / 64 03 21 40 E-Mail: m.hamer@disq.de 
www.disq.de

Original:
www.presseportal.de/pm

Apple: Hardware-Details zu Apples iPhone 6 aufgetaucht

Categories: Apple
Tags: ,
Comments: Comments Off
Published on: Juni 22, 2014
Um das neue iPhone von Apple sprießen die Gerüchte. Teilweise sind sie wild bis absurd, andere wiederum scheinen plausibel. Wann das Release des iPhones 6 ist, wird von Apple noch als Geheimnis gehütet. Die taiwanische “Economic Daily News” berichtete unter Berufung auf Zulieferer des US-Konzerns, Apple habe bereits Smartphone-Teile vom Halbleiter-Hersteller Visual Photonics Epitaxy und vom Kameralinsen-Hersteller Largan Precision gekauft. Die beiden großen Elektronikkonzerne Foxconn und Pegatron seien zudem informiert worden, dass die Montage der Geräte voraussichtlich ab Ende Juni beginne. Auf den Markt könnte es dann im September kommen. Darauf deutet eine Urlaubssperre für Apple Mitabeiter für September hin.

Technische Zeichnungen, die im Internet aufgetaucht sind, verraten, dass das neue iPhone wohl nur sechs Millimeter dick sein wird. Außerdem soll das neue iPhone 6 mit einem NFC-Chip für bargledloses Bezahlen ausgestattet sein.

Fotos von Gehäuseteilen, die aus Fabriken stammen sollen, legen den Verdacht nahe, dass Apple gleich zwei neue iPhone-Modelle auf den Markt bringen will: Ein etwas kleineres mit einem 4,7 Zoll großen, randlosen 16:9 Bildschirm, und ein sogenanntes Phablet mit 5,2 Zoll großem, ultrahochauflösendem Display.

Letzteres Gerät soll als iPhone Air mit besonders dünnem Gehäuse vermarktet werden, die Akku-Probleme könnten seinen Marktstart bis Anfang 2015 verzögern. Angeblich setzt Apple bei der kommenden Gerätegeneration erstmals auf Saphirglas, um den Touchbildschirm besser gegen Kratzer zu härten.

Apples Flaggschiff definiert seit 2007 den Fortschritt einer ganzen Produktklasse. Ohne Steve Jobs’ Erfindung wären Smartphones vielleicht noch immer Geräte mit Tastatur, sicherlich aber nicht so verbreitet wie heute.

Doch mittlerweile droht die Revolution ihre Gründer hinter sich zu lassen, die Innovation im Smartphone-Segment treiben aktuell andere: Samsung erkannte als erster den Trend zum großen Bildschirm, Google zeigt modulare Telefone, Microsoft neue Drahtlos-Funktionen.

Seit dem iPhone 4s, seit Steve Jobs Tod im Oktober 2011, steht Apples Technologieführerschaft infrage.

Der Konzern steht unter hohem Druck seiner Investoren, die Erwartungen der Kunden zu erfüllen: ein größerer Bildschirm, mehr Speicherplatz, robustere Geräte.

Verfolgen Sie in unserem Blog, was über das kommende iPhone 6 berichtet wird.

 

 
Ursprünglich veröffentlicht:
 
 
 

WLAN: Internet fürs Meer

Categories: Networks
Comments: Comments Off
Published on: Mai 3, 2014

US-Wissenschaftler haben ein Protokoll entwickelt, das eine Kommunikation mit Sensoren im Wasser über das Internet ermöglicht. Es basiert auf dem Open-Source-Betriebssystem Linux.

Unter Wasser gibt ist derzeit noch kein Internet. Gründe sind die schwierige Datenübertragung sowie fehlende Kompatibilität vorhandener Systeme. US-Forscher haben ein Protokoll entwickelt, das eine Kommunikation mit Sensoren im Meer oder in Seen über das Internet ermöglicht.

An Land können Daten per WLAN oder Mobilfunk übertragen werden. Unter Wasser breiten sich Funkwellen jedoch nicht weit aus. Für die Datenübertagung unter Wasser werden deshalb Schallwellen genutzt, die im Wasser eine große Reichweite erzielen. Per Schall werden Daten von Sensoren an eine Boje übertragen, die sie dann in Funksignale umwandelt und übermittelt. So arbeitet etwa das Tsunami-Warnsystem der National Oceanic and Atmospheric Administration (NOAA), die US-Wetter- und Ozeanographiebehörde, aber auch andere Systeme nutzen diese Funktionsweise.

Inkompatible Systeme

Das Problem sei aber, dass die Systeme auf unterschiedlichen Infrastrukturen basierten. Das erschwere den Austausch von Daten zwischen diesen Systemen, sagen die Forscher der Universität von Buffalo im US-Bundesstaat New York. Sie wollen das ändern.

Die Wissenschaftler um Tommaso Melodia haben eine Architektur entwickelt, über die sich Daten von Sensoren unter Wasser in Echtzeit auf jedes internetfähige Gerät übertragen lässt. Sie hätten es als Linux-Gerätetreiber für ein kommerzielles Unterwassermodem des Herstellers Teledyne Benthos implementiert, schreiben sie in einem Fachaufsatz.

Die Forscher haben das System getestet: Sie versenkten im benachbarten Eriesee zwei große Sensoren. Mit diesen konnten sie Daten austauschen. Ihre Architektur sei, resümieren sie, mit TCP/IP kompatibel.

Warnung vor Katastrophen

“Ein Funknetz unter Wasser wird uns die bisher nicht dagewesene Fähigkeit verleihen, in unseren Ozeanen Daten in Echtzeit zu sammeln und zu analysieren”, erklärt Projektleiter Melodia. “Wenn solche Daten für jedermann auf dem Smartphone oder auf dem Computer abrufbar sind, kann das Leben retten, vor allem wenn ein Tsunami oder eine andere Katastrophe eintritt.”

Katastrophen seien aber nicht das einzige Anwendungsszenario für ein Unterwasserinternet, sagen die Forscher. Eine solches Netz könnte bei der Suche nach unterseeischen Gas- und Ölvorkommen ebenso eingesetzt werden wie für den Umweltschutz, etwa um die Verschmutzung der Meere im Auge zu behalten.

Fische, Säuger, Drogenschmuggler

Auch Strafverfolger könnten ein Internet im Meer nutzen – etwa bei der Suche nach Drogenschmugglern, die für ihre Aktivitäten gern auch selbst gebaute U-Boote einsetzen. Mit einem Sensornetz unter Wasser könnten solche Aktivitäten unterbunden werden, sagt Melodia. “Wir könnten es sogar dazu einsetzen, um Fische und Meeressäuger zu beobachten, um herauszufinden, wie sie am besten vor Schiffen und anderen Gefahren geschützt werden können.”

Die Forscher wollen ihre Entwicklung auf der International Conference on Underwater Networks & Systems vorstellen. Die Konferenz findet vom 11. bis zum 13. November 2013 in Kaohsiung auf Taiwan statt.chips-1310-102074.html)

 

Original-Artikel:

www.golem.de/news/wlan-internet-fuers-meer-1310-102164.html

IHS: Notebooks mit Touchscreen sind stark im Kommen

Categories: Laptops
Comments: Comments Off
Published on: Mai 3, 2014

Angesichts fallender Preise gehen die Marktforscher von IHS davon aus, dass bis zum Jahr 2016 knapp ein Viertel aller Notebooks über einen Touchscreen verfügen. Weltweit sollen dann 78 Millionen solcher Geräte ausgeliefert werden. Zum Vergleich: 2012 waren es noch 4,6 Millionen, im laufenden Jahr soll ihre Zahl auf 24 Millionen steigen.

 

Als Hauptgrund für die zunehmende Verbreitung nennt IHS die fallenden Touchscreen-Preise. Diese sollen im laufenden Jahr mit 35 Dollar für 14-Zoll-Modelle im Schnitt nur halb so hoch liegen wie noch 2012, wo Gerätehersteller pro Display 60 bis 70 Dollar zahlen mussten. “Der Preis von 35 Dollar wird zur breiten Marktakzeptanz beitragen, da er die Fertigung günstigerer Touchscreen-Notebooks ermöglicht”, so die IHS-Analysten.

Das aktuelle Windows 8 ist die erste Version von Microsofts Betriebssystem, die fortgeschrittene Touch-Funktionen unterstützt. Die Technik ist vielversprechend, und zahlreiche Hersteller haben bereits mehr Geräte mit Touchscreens angekündigt. Bisher ist die Zahl der tatsächlich verfügbaren Touchscreen-Notebooks allerdings noch überschaubar.

Die PC-Industrie ist auf jegliche Hilfe angewiesen, die sie kriegen kann, um die Nachfrage wieder anzukurbeln. Das erste Quartal 2013 war eins der schlechtesten seit Jahren. Sowohl Gartner als auch IDC bescheinigten der Branche einen zweistelligen Absatzrückgang. Es war das vierte Quartal in Folge, in dem gegenüber dem Vorjahreszeitraum weniger Computer verkauft wurden. Und auch für das restliche Jahr 2013 ist keine Besserung in Sicht.

Viele Hersteller, darunter auch Chipriese Intel, hoffen, dass touchfähige Geräte dem PC-Markt neue Käufer bescheren werden. “Touch-Displays erfinden den PC-Markt neu, und in diesem Bereich gibt es eine großes Wachstumspotenzial”, sagt Zane Ball, Intels Vice President und General Manager für Global Ecosystem Development. “Bei Intel haben wir die Strategie gewählt, dass Touch überall sein sollte. Wir glauben, indem Touch in den PC-Bereich vordringt, dass es ein umformendes Produkt sein und eine neue Nachfrage entfesseln wird.”

 

Artikel-Quelle:

http://www.zdnet.de

Streiks: Warum das Amazon-Modell hier nicht funktioniert

Categories: E-Commerce
Tags: ,
Comments: Comments Off
Published on: Mai 1, 2014
Der Arbeitskampf zwischen dem Onlinehändler Amazon und seinen deutschen Mitarbeitern spitzt sich zu. Die Streiks stellen mittlerweile das Geschäftsmodell der Amerikaner in Deutschland in Frage. Innerhalb eines Monats haben Hunderte Mitarbeiter an zwei der acht Logistikzentren von Amazon in Deutschland vier Mal gestreikt.
 
Die Angestellten im hessischen Bad Hersfeld und im sächsischen Leipzig wollen einen Tarifvertrag, der sich an der Bezahlung im Handel orientiert, und den damit verbundenen Sicherheiten wie Lohnuntergrenzen oder Urlaubsgeld. Am Montag und Dienstag hatten rund 1300 Angestellte ihren Arbeitsplatz verlassen – der längste Streik bisher, wie die Dienstleistungsgewerkschaft Ver.di erklärte.

Amazon weigert sich, mit der Gewerkschaft zu verhandeln. Der Einzelhändler sagt, seine Gehälter seien fair und die Streiks – die ersten in der 15-jährigen Geschichte von Amazon in Deutschland – hätten bisher wenig Einfluss auf die Geschäfte gehabt.

Doch tatsächlich steht in Deutschland einiges auf dem Spiel: Das Unternehmen, das hier rund 9000 Menschen beschäftigt, hat im vergangenen Jahr 8,7 Milliarden von insgesamt 61 Milliarden Dollar zwischen der Nordsee und den Alpen verdient –Deutschland ist der größte Markt des Unternehmens nach den USA.

Der Streik lässt Zweifel aufkommen, ob das Geschäftsmodell von Amazon in Deutschland funktioniert: Der Online-Einzelhändler lebt davon, Dinge billig anzubieten. Doch durch die Macht der Gewerkschaften und das vergleichsweise strenge Arbeitsrecht hat das Unternehmen hier nicht die gleiche Flexibilität wie in den USA.

Dort haben gerade Einzelhändler viel Spielraum bei der Vergütung, dem Einstellen und Kündigen von Mitarbeitern. Amazon wolle seine amerikanischen Gewohnheiten “auf die deutschen Zentren übertragen, und das funktioniert nicht”, sagt Christian Danz, der seit 2002 beim Unternehmen arbeitet und dort Mitglied des Betriebsrates ist.

Dass sich die Unternehmensführung mit Arbeitnehmervertretern in Ausschüssen abstimmt, ist hier üblich – in den USA aber weitgehend unbekannt. Der Betriebsrat hat ein Wort bei Einstellungen und Kündigungen mitzureden, und verhandelt mit der Chefetage über eine Reihe weiterer Themen, wie Arbeitssicherheit und Privatsphäre.

Nicht nur Amazon hat Probleme

Vor Amazon mussten schon einige andere US-Unternehmen die Besonderheiten von Deutschlands Arbeitsmarkt spüren: So etwa der Einzelhändler Wal-Mart. In Amerika verbietet das Unternehmen Beziehungen zwischen Chefs und Mitarbeitern und verlangt von den Angestellten, dass sie lächeln.

Das wollte es auch in Deutschland durchsetzen. Doch die Mitarbeiter wehrten den Versuch ab, und Wal-Mart kam in die Schlagzeilen. Der Konzern gab den deutschen Markt 2006 auf und verkaufte seine Geschäfte an den hiesigen Wettbewerber Metro.

Trotz dieser Besonderheiten ist Deutschland ein attraktiver Ort für amerikanische Unternehmen. Mit 130 Milliarden Euro ist es eines der wichtigsten Investitionsziele der Konzerne, erklärt die US-Handelskammer in Deutschland. Ford, IBM und andere US-Unternehmen beschäftigen hier etwa 800.000 Menschen.

“Deutschland ist ein großer Markt”, sagt Fred Irwin, Ehrenvorsitzender der Handelskammer. “Wenn man es in Deutschland auf die deutsche Art macht, hat man Erfolg. Wenn man es auf die amerikanische Art macht, versagt man.”

Vor Amazon hatten schon andere Internetunternehmen ihre Probleme – vor allem wegen der strengen Datenschutzgesetze. Sowohl Google als auch Facebook haben sich Beschwerden von Bürgerrechtlern und Datenschutzbeauftragten eingehandelt – sie sahen die Privatsphäre der Nutzer bedroht.

Der Streit zwischen Amazon und seinen deutschen Mitarbeitern dreht sich darum, in welche Tarif-Kategorie die Angestellten fallen. Für Einzelhändler gehen die Löhne, die Gewerkschaften und Arbeitgeber ausgehandelt haben, typischerweise bei zwölf Euro pro Stunde los. In diese Kategorie fallen auch sie, sagen die Amazon-Angestellten.

Zweites PR-Debakel in kurzer Zeit

Das Unternehmen hält dagegen, es handele sich um Logistik-Angestellte, die schon am oberen Ende der Tarife für ihre Branche lägen. Amazon zahlt Stundenlöhne ab 9,30 Euro, dazu Boni und nach zwei Jahren Aktien. Das Unternehmen sagt, in den vergangenen fünf Jahren habe das im Schnitt zu einem Aufschlag von acht Prozent auf den Basis-Lohn geführt.

Die Mitarbeiter kündigen derweil an, sie würden weiter streiken, bis Amazon sich auf Verhandlungen einlässt. Die Gewerkschaft vertritt allerdings weniger als ein Drittel der Vertriebsmitarbeiter von Amazon, und nur zwei Zentren haben genug Mitglieder, um streiken zu können.

Amazon erklärt, es sei kein Einfluss der Streiks auf Lieferungen oder Verkaufszahlen zu beobachten. Doch der Ruf als Arbeitgeber hat drunter gelitten. “Ausbeutung” und “Lohndumping” gehören zu den Vorwürfen, die Zeitungen und Fernsehsender dem Unternehmen gemacht haben.

Das ist das zweite PR-Problem der Firma in den letzten Monaten. Im Februar musste sie die Zusammenarbeit mit einer Sicherheitsfirma aufkündigen – deren Mitarbeiter sollen Zeitarbeiter eingeschüchtert und belästigt haben.

In einer ARD-Dokumentation war zu sehen, dass einige Wachleute in Neonazi-Kreisen verbreitete Kleidung trugen. “Amazon hat null Toleranz für Diskriminierung und Einschüchterung – und wir erwarten dasselbe von allen Unternehmen, mit denen wir zusammenarbeiten”, sagte eine Sprecherin damals.

Bei den aktuellen Streiks hält Amazon daran fest, dass die Mitarbeiter angemessen entlohnt werden und mitbestimmen können. “Unsere Mitarbeiter verdienen am oberen Ende der Gehaltsskala, verglichen mit anderen Logistikfirmen”, erklärte das Unternehmen in einer Stellungnahme. “In allen Logistikzentren gibt es betriebliche Mitbestimmung – entweder als Betriebsräte oder als Arbeitnehmerausschüsse, mit denen wir eng zusammenarbeiten, um die Interessen der Mitarbeiter zu berücksichtigen. Wir sehen daher keinen Nutzen für Kunden oder Angestellte in der Tarifbindung.”

“Ich streike hier, um einen bessere Arbeitsvertrag zu erhalten, so dass wir sicherer sind und regelmäßige Gehaltserhöhungen bekommen” sagt dagegen Günter Wydra, der seit 2001 bei Amazon arbeitet. “Denn bisher reicht es nicht.” WSJ.de

Der Artikel “Das Amazon-Modell funktioniert in Deutschland nicht” ist zuerst beim “Wall Street Journal” erschienen.

 
Erstmals erschienen auf:

Schulungen zur selbstständigen Suchmaschinenoptimierung

Categories: SEO
Tags: ,
Comments: Comments Off
Published on: Mai 1, 2014

Um Ihrer Website und dem dazu gehörenden Gewerbe zu dem gewünschten Erfolg zu verhelfen ist es wichtig, dass die Website möglichst viele Besucher hat. Die allermeisten Besucher gelangen auf die Ziel-Website indem sie vorher einen Suchbegriff in eine Suchmaschine eingeben. Auf Grund dessen ist es absolut essentiell für den Erfolg einer Website, dass sie in den Listings der Suchmaschine möglichst weit vorne auftaucht, da sich kaum jemand die Mühe macht die Ergebnisse der Suchmaschinen-Suche besonders weit zu durchforsten.

Damit gewährleistet ist, dass eine solche vordere Platzierung in den Suchmaschinen-Listings erreicht wird, ist es nötig die entsprechend erforderlichen Maßnahmen zu ergreifen. Diese Maßnahmen fasst man zusammen unter dem Oberbegriff der Suchmaschinenoptimierung, oder kurz SEO (englisch: Search Engine Optimization).

In der Regel werden die Maßnahmen zur Suchmaschinenoptimierung von einem professionellen Dienstleister durchgeführt. Es ist aber auch möglich, dass der Betreiber einer Website die entsprechenden Maßnahmen selber ergreift, um die Performance seiner Website zu steigern.

Allerdings kann dies nur geschehen, wenn der Websitebetreiber zunächst einmal diese Maßnahmen von einem professionellen Dienstleister nahegebracht bekommen hat. Professionelle SEO-Dienstleister bieten zu diesem Zweck eine sogenannte SEO Schulung an. Diese richten sich extra an Betreiber von Websites, die ihre Website in den Suchmaschinenlistings weiter nach vorne bringen möchten. In einem speziellen SEO-Workshop werden den Interessenten dann Maßnahmen zur On-Page- oder zur Off-Page-Optimierung nahegebracht und sie lernen, wie sie diese Maßnahmen dann auch selbstständig zur Suchmaschinenoptimierung einsetzen können.

 

Wer einmal einen solchen Workshop SEO besucht hat, kann dann in der Zukunft immer wieder die notwendigen Maßnahmen ergreifen um seine Website auf den vorderen Plätzen der Suchmaschinenlistings zu halten und somit für einen ausreichend großen Besucherstrom zu sorgen.

Es ist also durchaus ratsam, gerade für Betreiber eher kleinerer Websites, die Kosten und den Aufwand für ein SEO Seminar auf sich zu nehmen, da mit dem dort erlernten Know-how später der Aufwand zur kundenorientierten Platzierung der Website verringert werden kann und man als Betreiber der Website persönlich sicherstellen kann, dass die eigene Website in den Ergebnislisten der Suchmaschinen möglichst weit vorne auftaucht.

Eine SEO Schulung ist also ein nicht zu unterschätzendes Werkzeug um zu gewährleisten, dass die eigene Website immer einen möglichst hohen Besucherstrom generiert.

Bamboo Stylus Mini: Stift für die Kopfhörerbuchse von Smartphones

Categories: Smartphones
Comments: Comments Off
Published on: Mai 1, 2014

Wacom hat mit dem Bamboo Stylus Mini einen kleinen Stift für kapazitive Touchscreens von Smartphones vorgestellt. Er ist 4,7 cm lang. Damit er nicht verloren geht, wird er in den Kopfhöreranschluss gesteckt.

Der Wacom Bamboo Stylus Mini unterscheidet sich von gängigen Eingabestiften für Touchscreens durch sein Format, das ihn Wachsmalstiften ähnlich macht. Der Stift wird mit einer Kordel und einem 3,5-mm-Klingenstecker in den Kopfhöreranschluss des Smartphones gesteckt, damit er immer mitgenommen und nicht vergessen wird.

Der Stift ist 4,7 cm lang und mit einem Durchmesser von 0,9 cm recht dünn. Die Stiftspitze ist auswechselbar. Der Hersteller bietet sowohl eine harte als auch eine weiche Version an.

Problematisch ist bei allen Eingabestiften bislang die Eingabeverzögerung der Touchscreens und bei vielen die fehlende Möglichkeit, den Anpressdruck zu erkennen, was bislang nur Grafiktablets und einige Tablets wie das Samsung Galaxy Note in Verbindung mit dem S Pen können. Adonit hat mit dem Jot Touch auch eine Lösung für iOS vorgestellt, bei dem ein per Bluetooth verbundener Stift die Andruckstärke übermittelt. Manche App-Hersteller versuchen dem zu begegnen, indem sie die Malgeschwindigkeit heranziehen, um die Strichbreite zu variieren.

Der neue Bamboo Stylus Mini soll rund 15 Euro kosten und ab sofort erhältlich sein.

 

Zuerst veröffentlicht auf:/www.golem.de

 

Neue Bildersuche: Fotografenverband klagt gegen Google

Categories: Internet Business
Comments: Comments Off
Published on: April 29, 2014

Hamburg – Freelens will Google untersagen lassen, bei seinem Bildersuchdienst auch bildschirmfüllende Fotos anzuzeigen. Nachdem Google auf eine Aufforderung zur Unterlassungserklärung nicht reagiert habe, habe man beim Landgericht Hamburg Klage gegen das Unternehmen eingereicht, erklärte der Verband am Freitag. Freelens warf dem US-Konzern vor, gegen das deutsche Urheberrecht zu verstoßen. “Es muss daher gerichtliche Hilfe in Anspruch genommen werden, um den fortdauernden Eingriff in Fotografenrechte zu beenden”, hieß es in der Freelens-Erklärung. (more…)

Code-Name PRISM: Washington sammelt Daten bei Google und Facebook

Categories: Internet Business
Comments: Comments Off
Published on: April 28, 2014
Die US-Regierung kann offenbar direkt auf die Server aller großen Internetkonzerne zugreifen und so Daten von Nutzern holen, von E-Mails bis Bewegungen. Obama wird täglich darüber berichtet.

Der US-Geheimdienst NSA und die Bundespolizei FBI zapfen nach Informationen der “Washington Post” direkt die zentralen Rechner von fünf Internet-Firmen an – mit deren Zustimmung. Den Zeitungen zufolge extrahieren die NSA- und FBI-Fahnder Audio, Video, Fotos, E-Mails- Dokumente und Verbindungsdaten, um Kontakte und Bewegungen einer Person nachzuvollziehen. (more…)

Netzpolitik – Sperrfristen bei Volksbefragung: Im Internet brachen alle Dämme

Categories: Internet Business
Tags: ,
Comments: Comments Off
Published on: April 28, 2014

Soziale Medien und diverse Internet-Portale sorgten am Tag der Volksbefragung dafür, dass es kommunikationstechnisch kein Halten gab. Noch vor Wahlschluss sickerten Teilergebnisse und Trends an die Öffentlichkeit, und Sperrfristen wurden durchbrochen, mit Insider-Wissen wurde geprotzt. Für künftige Wahlgänge könnte diese Vorgangweise einen einheitlichen Wahlschluss für ganz Österreich bedeuten. Der Kommunikationswissenschafter Hannes Haas spricht sich deshalb für eine “Twitter-Nettiquette” an Wahltagen aus. (more…)

Instant Messenger: Whatsapp führt Sprachnachrichten ein

Categories: Smartphones
Tags:
Comments: Comments Off
Published on: April 28, 2014

Ab heute können die 300 Millionen aktiven Whatsapp-Nutzer Sprachnachrichten ohne zeitliches Limit verschicken. Die Funktion bietet die Firma mit nur 45 Mitarbeitern für alle mobilen Plattformen gleichzeitig an.

Whatsapp führt eine neue Funktion ein, die das Versenden von Sprachnachrichten ermöglicht. Das sagte Firmenchef und Mitbegründer Jan Koum dem Blog des Wall Street Journals All Things D. Zugleich gab Koum bekannt, dass das vier Jahre alte Unternehmen 300 Millionen aktive Nutzer habe. Dazu gehörten jeweils mehr als 20 Millionen aktive Instant-Messaging-Anwender in Deutschland, Mexiko, Indien und Spanien. (more…)

Notebooks für weniger als 400 Euro – Finger weg von Billig-Notebooks

Categories: Laptops
Tags:
Comments: Comments Off
Published on: April 28, 2014
Langsam, sperrig, schlecht verarbeitet: Viele Notebooks für 400 Euro taugen kaum als mobiles Arbeitsgerät. Nur wer seine Erwartungen deutlich nach unten schraubt, wird glücklich. Experten erklären, wo die gravierendsten Nachteile liegen.
Auf dem Notebook-Markt werben Hersteller vor allem mit kleinen und leichten Geräten, die noch dazu mit Leistung überzeugen. Doch diese Notebooks kosten oft zwischen 700 und 1000 Euro. So viel möchte nicht jeder für ein neues Gerät ausgeben, zumahl es auch günstigere Angebote gibt. „Viele wollen heute einen Rechner, aber nicht Hunderte Euro ausgeben“, sagt Hans Stahl, Direktor am Institut für Informatik der Fachhochschule Köln. Aber was taugt ein einfaches Notebook für wenig Geld?

Praktisch alle namhaften Anbieter wie Samsung, Acer oder Toshiba haben Modelle um die 400 Euro im Angebot, sagt Andreas Streim vom IT-Branchenverband Bitkom in Berlin. „Die Geräte werden gemeinhin als Einsteigergeräte bezeichnet.“ Mit Notebooks in dieser Preisklasse lassen sich die meisten einfachen Arbeiten am Computer gut erledigen. Besondere Qualität dürfen Käufer dieser Geräte aber nicht erwarten. (more…)

Bericht: Entwicklung von iOS 7 verzögert sich

Categories: Apple
Tags: ,
Comments: Comments Off
Published on: April 27, 2014

Apple benötigt für die Entwicklung von iOS 7 angeblich mehr Zeit als bisher geplant. Das berichtet zumindest John Gruber in seinem Blog Daring Fireball. Demnach hat Apple mehrere Entwickler von Mac OS X 10.9 abgezogen und dem für iOS 7 zuständigen Team zugeordnet.

 

Das deutet möglicherweise darauf hin, dass Apple die neueste Version seines Mobilbetriebssystems auf seiner üblicherweise Anfang Juni stattfindenden Entwicklerkonferenz vorstellen will. Das Unternehmen nutzt die Worldwide Developer Conference regelmäßig, um Entwicklern Vorabversionen seiner neuesten Software zur Verfügung zu stellen. (more…)

«page 1 of 10

Teilen

Welcome , today is Montag, September 15, 2014