Informations/Telekommunikations- Dienstleistungen Christian Freter

Partner von AVM und Seagate

1&1 Premiumpartner 

 

Willkommen bei meiner kleinen Unternehmung als Vor Ort Dienstleister!

Meine Dienstleistungen sind:

 

  • Upgrades von PC und Notebook; Speichererweiterungen für Daten, Leistungssteigerung für Spiele und Workflow
  • Datensicherungen; professionelle Datensicherungsstrategien und Technik für Privat und Gewerbe
  • Netzwerktechnologie und Smarthome 
  • Office Lösungen; Private Cloud, Public Cloud und lokale Office Installationen für Informationsaustausch, Textbearbeitung, Präsentationen, Kalkulation, Rechteverwaltung
  • Smartphone, Notebook, Festnetz und Mobilfunk 

 

Den vollen Funktionsumfang der Seite habt Ihr nur, wenn der Webbrowser die Desktopansicht unterstützt!

UP

Willkommen bei meiner kleinen Unternehmung als Vor Ort Dienstleister!

Meine Dienstleistungen sind:

 

  • Upgrades von PC und Notebook; Speichererweiterungen für Daten, Leistungssteigerung für Spiele und Workflow
  • Datensicherungen; professionelle Datensicherungsstrategien und Technik für Privat und Gewerbe
  • Netzwerktechnologie und Smarthome 
  • Office Lösungen; Private Cloud, Public Cloud und lokale Office Installationen für Informationsaustausch, Textbearbeitung, Präsentationen, Kalkulation, Rechteverwaltung  
  • Smartphones, Notebooks, Festnetz und Mobilfunk

 

Den vollen Funktionsumfang der Seite habt Ihr nur, wenn der Webbrowser die Desktopansicht unterstützt!

//News und Infos//

//KalenderWoche 20//

Daten sichern unter Windows

Grundsätzlich gibt es 3 Sicherungsmöglichkeiten unter Windows, die für den normalen Anwender und im gewerblichen Bereich eine Relevanz haben: 

 

Die Vollsicherung, eine normale Datensicherung und die Wiederherstellung (Systembackup).

 

Windows hat für alle 3 Sicherungen die nötigen Programme integriert. Ich nehme es aber gleich vorweg: Die Vollsicherung mit dem Windows Tool ist …es funktioniert, aber manchmal auch nicht. Keine Ahnung, welches Problem Microsoft damit hat. Andere Hersteller bekommen ihre Programme auch zum Laufen. Mittlerweile setzt Microsoft bei den normalen Anwendern verstärkt auf Datensicherungen in der Cloud (Internet).


 

Die Wiederherstellung verwendet man unter Windows, um mit wenig Datenaufwand und in kurzer Zeit ein Windows System wieder lauffähig zu machen. Das kann zum Beispiel nach der Installation eines Updates nötig sein. Habt ihr einen normalen Windows PC ohne Herstelleranpassungen, gesonderte Sicherungsprogramme usw., dann wird Windows vor jedem Update einen Sicherungspunkt in der Wiederherstellung erstellen. Das Problem dabei ist, dass wirklich nur ganz bestimmte Teile des Systems gesichert werden. Das sind Teile der Systemdateien und der Registrierung (eine Datenbank mit Informationen zu Programmeinstellungen und solche Sachen). Das ist also keine Sicherung eurer Daten! Es hilft euch wirklich nur, wenn das Windows mal nicht mehr will. Habt ihr einen Virus, dann ist dieser nach der Wiederherstellung mit großer Wahrscheinlichkeit weiterhin aktiv. Die Wiederherstellung findet ihr ganz einfach über das Suchfeld in der Windows Taskleiste. Im Suchfeld einfach “Wiederherstellung” eintragen. Dann könnt ihr diese, falls doch nicht passiert, aktivieren oder einen Systemstatus wiederherstellen.

 

Die Vollsicherung bzw. das Systemabbild ist eine uralte Funktion unter Windows 10/11, die von Windows 7 übernommen wurde. Funktioniert aber nicht immer! Probleme bekam ich z.Bsp. immer, wenn während der Sicherung externe Geräte angeschlossen waren. Ganz schlechtes Karma! Es macht auch durchaus Sinn, gleich 2 Systemabbilder zu erstellen. Das nötige Tool kann über das Suchfeld der Taskleiste geöffnet werden mit dem Suchbegriff “Systemsteuerung”. In der geöffneten Systemsteuerung den Menüpunkt “System und Sicherheit” auswählen. Ihr könnt über dieses Menü einen Datenträger für die Wiederherstellung der Vollsicherung erstellen. Zwingend erforderlich, falls keiner vorhanden ist! Für die oben beschriebene Wiederherstellung (das Systembackup) empfiehlt sich ebenfalls ein entsprechender Datenträger oder ein Installationsmedium, falls Windows absolut nicht mehr will. Verwendet ihr die Datenträgerverschlüsselung Bitlocker, dann vor dem Systemabbild deaktivieren! Oder sogar generell (habe das Systemabbild von Windows schon ewig nicht mehr verwendet..). Sollte das Aufspielen des Systemabbildes mit Bitlocker funktionieren, dann benötigt ihr auf jeden Fall den Bitlocker Key (auch für die Wiederherstellung!). Das Windows Systemabbild solltet ihr, meine Empfehlung, gegenüber einem preiswerten Sicherungsprogramm bevorzugen. Diese preiswerten Programme erhalten oft keine Updates und funktionieren nicht selten nach dem Kauf bereits nicht mehr. Ein kleines Windows Update reicht schon, um diese Programme sinnlos zu machen. Die Ausnahme ist dabei nicht die Regel und es gibt sicherlich preiswert gute Programme.

 

Normale Datensicherungen können unter Windows lokal (z.Bsp. auf eine externe Speicherdisk oder ein kleines NAS) oder in der Microsoft Cloud (Internet) gespeichert werden. Die Speicherung in der Cloud erfolgt über Microsoft “One Drive”. Der Speicher ist allerdings begrenzt und der zeitliche Aufwand einer Sicherung ist natürlich abhängig von den Möglichkeiten des Internetzugangs. Eine Hilfe für die Konfiguration der “One Drive” Sicherung findet ihr bei Microsoft: https://support.microsoft.com/de-de/windows/sichern-ihres-windows-pcs-87a81f8a-78fa-456e-b521-ac0560e32338#ID0EBF=Windows_11

 

Von Microsoft ganz nett erklärt. Mal davon abgesehen, dass dort nirgends das Wort “Verschlüsselung” erwähnt wird. Die Datenübertragung erfolgt auf jeden Fall verschlüsselt und das meines Wissen über HTTPS. Für den normalen Anwender im Normalfall ausreichend, aber für so manches Unternehmen vielleicht nicht mehr. Die Microsoft Cloud Produkte sind jetzt nicht so mein Fachgebiet. In der Regel sollten Unternehmen auf Zertifizierungen achten oder Angaben zur Einhaltung gesetzlicher Vorgaben. Bei Microsoft landen aber wohl sehr viele Daten auf Servern in den USA. Das wird öfters bemängelt. Letztlich auch normal, weil ein amerikanisches Unternehmen. Allerdings muss auch jedes Unternehmen, das solche Dienstleistungen in unserer Region anbietet, sich an gesetzliche Vorgaben halten. Die Daten in “One Drive” sind jedenfalls nicht verschlüsselt! Für Geschäftskunden vielleicht. Normale Anwender müssen dafür auf jeden Fall den Tresor aktivieren. Und ich habe keine Ahnung, ob dann wirklich alles verschlüsselt wird. Microsoft Hilfe: https://support.microsoft.com/de-de/office/sch%C3%BCtzen-ihrer-onedrive-dateien-im-pers%C3%B6nlichen-tresor-6540ef37-e9bf-4121-a773-56f98dce78c4

 

Wollt ihr unter Windows lokal sichern, dann könnt ihr die Daten ganz normal in einen Ordner kopieren, bei Bedarf als ZIP packen und dann im Explorer in den jeweiligen Sicherungsspeicher kopieren. Automatisieren lässt sich das über Skripte (Powershell, CMD Batch). Befehle für CMD Batch wären copy, xcopy, robocopy, tree, recover, move, mkdir, fc, find, chdir, chkdsk.  Für Powershell mkdir, copy-item (für dieses Commandlet mit get-help die Hilfe aufrufen für weitere Befehle). 

 

Infos, News und was sonst noch bleibt

 

1&1 IONOS: bietet das Cloud Office Collabora auf Basis von LibreOffice an (enthält Text, Tabelle, Präsentation, einfaches Grafikprogramm für Office Grafiken und kommt aus dem Open Source). Das ist keine deutsche Entwicklung! Aus meiner Sicht wurde das etwas blöd vermarktet. Der Hauptsitz ist in London (also außerhalb der EU). Bei IONOS erhält man lediglich die Möglichkeit, die Office Daten auf deutschen Servern zu speichern mit Nextcloud (ist sogar im Office integriert, aber erfordert wahrscheinlich eine gesonderte Registrierung). Für die Grammatik/ Rechtschreibprüfung kann das Office anscheinend für das “LanguageTool” konfiguriert werden. Deutsch, aber unterstützt auch andere Sprachen. “LanguageTool” ist für alle unabhängig vom Office nutzbar (www.languagetool.org). Beim Chrome Add On aufpassen! Das liest aus der Notwendigkeit heraus alle Seiten mit, aber man kann es deaktivieren. 

 

Das ist übrigens ein Vertragspunkt aus den AGB's von 1&1 IONOS zum Thema Cloud Office und gibt es in ähnlicher Form auch bei anderen Anbietern/ Vermittlern. Alles hat seine Vor und Nachteile..und seinen Preis: 

“IONOS  weist den Kunden ausdrücklich darauf hin, dass der Datenschutz für Datenübertragungen in offenen Netzen, wie dem Internet, nach dem derzeitigen Stand der Technik nicht umfassend gewährleistet werden kann. Der Kunde weiß, dass der Provider das auf dem Webserver gespeicherte Seitenangebot und unter Umständen auch weitere dort abgelegte Daten des Kunden aus technischer Sicht jederzeit einsehen kann. Auch andere Teilnehmer am Internet sind unter Umständen technisch in der Lage, unbefugt in die Netzsicherheit einzugreifen und den Nachrichtenverkehr zu kontrollieren. Für die Sicherheit und die Sicherung der von ihm ins Internet übermittelten und auf Web- Servern gespeicherten Daten trägt der Kunde vollumfänglich selbst Sorge.”.  Und noch ein Youtube Short auf meinem Kanal zum Thema Datensicherheit in der Private Cloud: https://youtube.com/shorts/eq5kqyHrnDY?feature=shared

 

Administratoren: gibt es auch im Cloud Office. Diese sind für die Konfiguration der Dienste und der Benutzerverwaltung verantwortlich. In der Regel kann man im Cloud Office (von Office zu Office unterschiedlich) delegieren, d.h. man erteilt Freigaben für kleinere oder größere Konfigurationen,  die dann von kleineren Administratoren administriert  werden können. Oder einfach ausgedrückt: Arbeitsteilung unter Aufsicht des Superadmins. Der Superadmin kann alles konfigurieren! Aber was, wenn der Superadmin Account aus irgendwelchen Gründen nicht mehr funktioniert? Jup, es fängt mit “Sch” an und endet auf “e!”. Daher macht es Sinn einen zweiten Superadmin Account in der Hinterhand zu haben.

 

Google: Pixel 8a ist da! 

 

Apple: IPad Pro ist bald da...

 

Hat mein Raspberry PI einen Virus?!

Eine Frage, die sich bestimmt bereits einige in ähnlicher Form gestellt haben. Aber woran merkt man eigentlich, dass der PC sich einen Virus eingefangen hat? In meinem Youtube Video könnt ihr euch die bei meinem PI aufgetretenen Symptome anschauen.    

 

Aus dem Blick eines Virenentwicklers ist es natürlich wünschenswert, wenn der Virus überhaupt nicht bemerkt wird. Der Virus soll schließlich seine ihm zugewiesene Aufgabe erfüllen. Das bedeutet in der heutigen Zeit Daten ausspähen, Daten verschlüsseln und eine Plattform bereitstellen für Angriffe auf andere Systeme. 

 

Das Problem dabei ist, dass diese Aufgaben trotzdem Müll hinterlassen. Das kann ein verschlüsselter Ordner sein, der vorher nicht da war (nicht verwechseln mit Ordnern, die zur Datenwiederherstellung erstellt werden). Oder ein seltsamer Traffic im Netzwerk, der vorher nicht da war. Und ja, viel Netzwerk Traffic entsteht heutzutage auch durch Updates, Datenerfassungen von Apps oder dem Betriebssystem. Neulich auch einen kleinen Schreck bekommen, aber dann war es doch nur ein Microsoft Server, der kontaktiert wurde. Unter Windows könnt ihr übrigens ebenfalls das Tool “netstat” im Windows Terminal verwenden, um aktive Verbindungen anzuzeigen. Manchmal kann auch ein Blick in die Firewall Konfiguration helfen. Die Firewall soll eigentlich nicht erwünschte  Netzwerk Zugriffe von Außen, aber durchaus auch von Innen, blockieren. Manche Viren benötigen aber diese Freigaben und vielleicht kann man das erkennen, z.Bsp. mit zusätzlichen Meldungen in den Ereignis LOGs (die Windows LOGs sind generell ein guter Tipp, um vielleicht etwas seltsames zu entdecken; aber nicht gleich in Panik verfallen, Windows selbst produziert so einige Fehlermeldungen). Das blöde an Windows ist, dass mittlerweile dermaßen viele Dienste die Firewallfreigabe verwenden, obwohl der Dienst vielleicht gar nicht verwendet wird, wodurch man die Virusfreigabe gar nicht erkennt.    

 

Ein böser Virus sendet und empfängt nicht die ganze Zeit Daten. Die meiste Zeit sammelt der seine Informationen. Mal hier ein bißchen, mal da ein bißchen und eines Tages sendet der mal kurz Informationen über das Netzwerk. Bekommt man als normaler Anwender nicht zwangsläufig mit.  

 

Verräterischer wird es, wenn bestimmte System eigene Programme nicht mehr funktionieren, z.Bsp. der Editor (Notepad) oder das Zeichenprogramm. Vor allem kleine Systemprogramme werden mal schnell von einem Virus übernommen. Jup, wie in der Natur… Aber letztlich kann es auch nur ein Fehler im letzten Systemupdate sein. Hier könnte das Installieren des vorhergehenden Systembackups helfen, um Klarheit zu haben. Unter Windows wird bei einem größeren Update automatisch eine Sicherung erstellt, die man dann zurückspielen kann. Unter Linux muss man oft selber mitdenken und aktiv werden. Möglichkeiten sind vorhanden, aber man muss diese nicht selten vorher selber konfigurieren. In den Handbüchern und Wikis der Linuxe findet man eigentlich immer etwas dazu. Habt ihr einen Raspberry PI, dann könnt ihr ganz einfach das Programm “SD Card Copier” verwenden. Das hat eine grafische Oberfläche und kopiert das vollständige startbereite System auf eine andere SD Karte oder externe Speicherdisk. Standardprogramme unter Linux für Datensicherung sind tar, cp, dd und rsync (  Terminal Anwendungen). Für grafische Backupprogramme ebenfalls in die Anleitung der Linuxe schauen. Nicht selten werden welche für das jeweilige Linux empfohlen. Verwendet ihr mehrere Speicherdisks oder Partitionen im System, dann könnt ihr auch den Bootloader anpassen, damit dieser im Fall der Fälle eine Sicherungspartition lädt (die natürlich vorher erstellt werden muss). MacOS hat ebenfalls Programme für die Datensicherung integriert.

 

Ihr merkt schon, worauf die Sache hinausläuft: Ein Virenschutzprogramm und eine Sicherungslösung sind eine tolle Sache. Mein PI hatte übrigens keinen Virus. Das Video habe ich mit dem Samsung Programm “AR Zone” erstellt. Gibt es meines Wissens nur für unterstützte Samsung Geräte, aber im PlayStore findet man ähnliche Programme. Und ja, Viren unter Linux sind noch immer eher seltener. Gründe dafür sind die Sicherheitsvorkehrungen im System selbst und dann auch die Vielfalt im Aufbau der einzelnen Systeme. Angriffe auf Sicherheitslücken in Programmen/ System sind aber auch unter Linux bekannt. Auf MacOS ist es ähnlich, aber hier hilft auch der im Vergleich zu Microsoft geringe Marktanteil.  

 

Die Zukunft der Harddisks// Seagate Mozaic 3+

Ich zitiere mal Seagate: “Seagate läutet die nächste Generation der Festplattenkapazität ein mit HAMR (Heat-Assisted Magnetic Recording//Englisch; magnetische Aufzeichnung mit Hilfe von hoher Temperatur). HAMR ist die einzige derzeit erforschte und getestete Technologie, die den nötigen nächsten Schritt für die Flächendichte ermöglicht.”

 

Also eine Harddisk, keine SSD, besteht aus mehreren Scheiben, die durch eine magnetische Reaktion Daten speichern kann. Die Daten werden mit einem bestimmten Verfahren auf einer sehr kleinen Fläche im Nanometerbereich gespeichert. Daher wird die Menge der speicherbaren Daten durch die Fläche begrenzt. Jetzt könnte man die Anzahl der beschreibbaren Flächen natürlich einfach erhöhen, um mehr Daten speichern zu können, aber dadurch würde eine Speicherdisk deutlich schwerer, größer, höher und langsamer werden und mehr Strom benötigen. Das funktioniert also nicht wirklich. Die Alternative war die Daten übereinander auf der Fläche zu stapeln bzw. stapelt man Nanoteilchen übereinander. Dieses erhöhte die speicherbare Datenmenge beträchtlich. Nach dieser Methode arbeiten heutzutage die meisten Disks mit Kapazitäten bis um die 20 Terabyte. Aber auch diese Alternative hatte durch die gebräuchlichen Technologien ihre Grenzen. 

 

Jetzt nutzt Seagate HAMR. Beim HAMR wird durch einen nanophotonischen Laser, der durch einen photonischen Trichter über eine Quantenantenne kanalisiert wird, eine Speicherfläche vorgewärmt und mit einem speziellen Magnetkopf (Mozaic3+) beschrieben. Die Speicherung und das Auslesen der Daten spielt sich auf atomarer Ebene ab (also winziger als winzig). Durch die Erwärmung können die Daten deutlich effizienter gespeichert werden. Dafür benötigt es aber noch eine spezielle Legierung bzw. Schicht auf den Datenscheiben der Harddisk und den Spintronic Reader der 7. Generation zum Auslesen der Daten.

 

Gesteuert wird die ganze Sache von einem 12 Nanometer Controller, der von Seagate entwickelt wurde. Der Chip ist deutlich größer als 12 Nanometer, aber die Innereien, hauptsächlich Transistoren und Leiterbahnen, sind sehr klein und liegen sehr dicht nebeneinander. Zum Vergleich: Beim Vorgängermodell waren es noch 28 Nanometer mit der selben Chipgröße (also weniger Innereien auf der selben Fläche). Dieses Mehr auf der selben Fläche ermöglicht schnellere Signalverarbeitungen (mit 4GHz) und man benötigt weniger Strom um den Chip zu betreiben. Oder anders ausgedrückt: Der Strom aktiviert auf seinem Weg mehr Transistoren im Vergleich zum selben Weg auf dem alten Chip. Dazu kommen dann spezielle integrierte Funktionen, die die Speicherung und das Auslesen der Daten der HAMR Disks effizient ermöglichen.

 

Wie bereits erwähnt ist Mozaic3+ der Magnetkopf, der die Daten schreibt.  Dafür wird aber zusätzlich eine Art Netz oder Folie benötigt, die über die Scheiben der Disk gelegt wird. Diese besteht aus einem Platin/Eisen Gemisch. Also ein Übergitter aus Platinlegierung, das sehr dünn ist. Letztlich spricht man dann von Platinteilchen und Eisenteilchen, weil die Technik auf atomarer Ebene arbeitet. Zu diesem Gitter gehört aber auch noch eine kristalline Schicht auf einem speziellen Glassubstrat. Diese Schichten sind dann für die Anordnung der Datenteilchen/ Nanopartikel verantwortlich. Die hohe Erwärmung durch den Laser führt dann in der Legierung zu einer Transformation, die die magnetischen Eigenschaften der Speicherdisk verbessert. Der Laser erhitzt auch wirklich nur eine sehr winzige Fläche, die die Nanopartikel enthält, die verändert werden müssen, um eine Information zu speichern. Dabei gilt es noch ein weiteres Problem zu lösen: Die Kühlung. Seagate hat speziell dafür einen hochentwickelten Kühlmechanismus integriert.

 

Wie funktioniert jetzt der Schreibvorgang im Detail? Alleine die Bestrahlung mit der Laserenergie reicht nicht aus. Deswegen gibt es noch die Quantenantenne, die die Energie in Wärme umwandelt. Dies geschieht mit Schwingungen von Elektronen des Laserlichts auf dem Quantenlevel. Huih! “Antman” lässt grüßen.. Man spricht dann auch von Oberflächenplasmonen, die durch Licht auf der Metalloberfläche induziert werden. Also da kommt dann eine Art hochintensives Magnetfeld raus mit großer Hitze. Überrascht? :-) Die dabei entstehende Hitze (800 Fahrenheit, etwa 420 Grad) verändert die Eigenschaften der Teilchen in der Legierung und ermöglicht es, diese beim Schreiben durch Mosaic per Magnetismus neu auszurichten. Das auf einem höchst präzisen Niveau und mit einer sehr hohen Bitdichte. Am Ende entsteht durch eine geänderte Ausrichtung der Teilchen die Möglichkeit, Änderungen im Magnetfeld auszuwerten, die dann beim Lesen als Informationen auf dem Bildschirm erscheinen. 

 

Jedes ausgerichtete Nanopartikel für die Datenspeicherung ist dabei nur wenige Nanometer groß (macht irgendwie Sinn..) und stellt ein Datenbit dar. Ein Bit ist die kleinste Dateninformation, die gespeichert werden kann. Das ist ein “An” oder “Aus” (oder “1” oder “0”). Kombiniert man sehr viele dieser Bits, dann kann man eine richtige Information speichern, z.Bsp. wäre “1110” die Zahl 14. Dieser könnte man wiederum ein Zeichen zuordnen und das wäre dann unsere Information. 

 

Das sind also die neuen Harddisks von Seagate. Und nein! Das sind keine CD Brenner. Beim CD Brenner brennt ein Laser kleine Vertiefungen in Kunststoff. 

 

Aktuell werden die Mozaic3+ Disks bereits von ein paar Cloud Anbietern verwendet. Eine Umrüstung von den alten Disks auf die neuen Disks ist ohne größere Probleme möglich, weil die Schnittstelle kompatibel ist und die Schreib/Lesevorgänge von dem Controller in der Disk kontrolliert werden. 

GPS Tracker oder Smartphone? 

Eine interessante Frage. Ich habe vergangene Woche einen Bericht zu einem Wandervorfall in der Schweiz vor 6 Jahren gesehen. Letztlich haben von der 7 köpfigen Gruppe in einem Schneesturm nur 3 überlebt. Der Bergführer hatte auf ein Satellitentelefon, gute Sicht und die Navigation seines Smartphones vertraut. Am Ende war die Gruppe nur 500 Meter von der rettenden Berghütte entfernt gewesen, aber konnte im Schneesturm den Weg nicht finden. 4 sind erfroren. 

 

Das Problem war letztlich, dass das Satellitentelefon keinen Empfang hatte und das Smartphone nicht funktionierte (Akku alle oder so). Eine andere Gruppe vertraute auf GPS Tracker und fand den Weg. Dies auch, weil der Bergführer am Tag vorher Tracking Points mit dem GPS Tracker gesetzt hat, die er dann im Schneesturm anvisieren konnte.

 

So! Grundsätzlich hat ein Smartphone die selben Möglichkeiten eines GPS Tracker. Zum Teil kann ein Smartphone sogar mehr Navigationssysteme verwenden als ein GPS Tracker und die topographische Darstellung ist durchaus detailreicher. Für vergleichbare Anzeigen auf einem GPS Tracker muss man bereits sehr tief in die Tasche greifen. Damals sagte man immer noch, dass GPS Tracker präziser sind. Das ist heutzutage nicht mehr unbedingt der Fall. Also 3 bis 10 Meter Genauigkeit mit dem Smartphone sind keine Seltenheit mehr, zumindest bei den besseren Geräten. Aber Vorsicht! Preiswerte Geräte haben nicht selten kein GPS oder ähnliche Navigation. Diese verwenden Funksignale, um den Standort zu bestimmen und benötigen dafür immer eine Internetverbindung. Das ist natürlich nicht ganz so effizient. Trotzdem greifen Wanderer oder Biker gerne zu GPS Trackern. Wieso?

 

Zuallererst hält der Akku beim GPS Tracker durchaus deutlich länger (bis zu 14 Tage, Uhren über 100 Tage). Ein Smartphone benötigt immer Strom für zusätzliche Funktionen oder das Display und das saugt den Akku leer. Die Displays bei den kleineren Trackern sind sehr einfach gehalten, aber verbrauchen dadurch sehr wenig Strom und man kann bei besseren Trackern trotzdem, auch bei größerer Sonneneinstrahlung, alles erkennen. GPS Tracker haben nur eine Funktion und das ist das GPS Tracking. Auch das spart wieder Strom. Teure Tracker, z.Bsp. von Garmin, unterstützen eine spezielle Satellitenverbindung für Notrufe oder SOS Nachrichten. Bei Garmin nennt sich das “in Reach” über ein spezielles Satellitennetzwerk. Oder manche Tracker können Wetterdaten empfangen. Nicht ganz unwichtig… Und manche Tracker können sogar Höhenpositionen und Laufgeschwindigkeit anzeigen. Das fehlt beim Smartphone in der Standardnavigation auf jeden Fall. Um das noch auf dem Smartphone angezeigt zu bekommen, dann muss man sich bei einer Wander App anmelden. Und ob das dann auch genau ist, das ist noch eine ganz andere Geschichte. Eine andere Sache noch: Kleine Tracker sind nicht selten leichter als ein Smartphone. Bei 4 Wasserflaschen, Kamera usw. sind 100 bis 200 Gramm Unterschied vielleicht nicht ganz unwichtig (ich jedenfalls achte auf sowas und natürlich ist das Wasser irgendwann alle…). So ein kleiner Tracker lässt sich auch deutlich einfacher am Gürtel oder Kleidung befestigen. 

 

Ansonsten sind Smartphones heutzutage sehr robust. Ich habe in der Vergangenheit bereits darauf hingewiesen. Die Tracker sind oft noch robuster. Okay! Fällt ein Stein drauf, dann piepst der Tracker auch nicht mehr. Aber grundsätzlich sind viele robuster. Das bringt mich zur Bedienung. Manche Smartphone Displays unterstützen die Bedienung mit Handschuhen. Ja, das funktioniert irgendwie auch halbwegs. Aber dann kommt man auf den Home Button des Smartphones und die App ist weg vom Display. Nur mal als Beispiel. Die Bedienung der meisten Tracker ist deutlich einfacher gehalten und da klickt man dann auch nicht so schnell mal etwas weg. Tracker können mit normalen Batterien betrieben werden. Nicht alle, aber manche. Beim Smartphone könnte dann noch eine Powerbank für die Hosentasche helfen.

 

Kartenmaterial kann beim Tracker und Smartphone heruntergeladen werden. Aber welches ist besser? Google Maps kann auf dem Android Phone ein paar Wander und MTB Strecken anzeigen. Zusätzlich könnte man die Smartphone App Komoot empfehlen. In dieser kann man sich zusätzlich Höhenprofile anschauen, die präzise sind, wenn der Wanderweg oder MTB Trail dort gespeichert ist. Aber die Wahrscheinlichkeit ist beim Tracker höher, dass dieser die Wanderwege kennt. Das ist natürlich abhängig vom Hersteller. In der App Komoot kann man einige Wege für die Navigation auf dem Smartphone freischalten, wenn diese bekannt sind. Ansonsten gibt es von Garmin noch die Explore App für das Smartphone. Grundsätzlich ist diese für die Synchronisation mit Garmin Tracker Geräten gedacht, aber funktioniert eingeschränkt auch ohne Garmin Gerät. 

 

Zusammenfassend würde ich festhalten: Das Smartphone ist für einige Unternehmungen ausreichend. Der Tracker sollte auf jeden Fall die Wahl sein, wenn es spezieller wird. Ich will “speziell” nicht genau definieren, aber man könnte auch schreiben: Wenn der Akku beim Smartphone leer ist, dann ist dieser leer oder wenn kein Mobilfunknetz, dann keine SMS und Telefonie. Und noch ein Tipp: Vor einer Wanderung oder MTB Trail immer das Kartenmaterial aktualisieren und möglichst für die Offline Nutzung speichern (also die Verwendung ohne Internet). Setzt ihr auf Elektronik, dann sind ein Austauschakku/ Batterien oder eine Powerbank eine gute Idee. Natürlich könnt ihr auch GPS Tracker und Smartphone parallel nutzen (bei neueren Geräten eine klare Empfehlung, aber kostet Strom). Ansonsten ist ein altmodischer Kompass eine Idee. Diesen während der Tour auf einen markanten Punkt ausgerichtet und im Fall der Fälle hat man wenigstens eine Richtung. Oder leistet euch zusätzlich eine/n Führer/in. Bei größeren Vorhaben immer zu empfehlen, weil man in der Gruppe auch sicherer ist, wenn etwas passiert (zumindest theoretisch). 

Infos, News und was sonst noch bleibt

 

Synology: Drive Server hat ein Update auf 3.5 erhalten. Dieses Update führte auch zu einem Update des Programm Clients; ebenfalls 3.5. Das Update erhöht die Stabilität des Programms auf einem 64 Bit Microsoft Windows und die Synchronisation von größeren Dateien erfolgt noch einmal stabiler als vorher. An dieser Stelle mal der Hinweis: Wenn ihr sehr große Dateien synchronisiert, um diese auf einem anderen PC zur Verfügung zu stellen, dann löscht diese am besten nach dem Vorgang bzw. verschiebt diese in einen anderen Ordner auf dem NAS. Im ungünstigsten Fall wird diese große Datei auch von anderen Systemen synchronisiert oder bei Einstellungsänderungen wieder geladen. Bei sehr großen Dateien kann das echt nervig sein. Zurück zum Update! Es wurden auch kleine Problemchen im Client vom Mac und Windows entfernt.

 

Virus: befällt Anti Virus Programm! Das Virenschutzprogramm “eScan”, indische Entwicklung, wurde Opfer eines “Man in the Middle” Angriffs (mehrere entsprechende Webseiten und Youtuber haben das gemeldet, aber ursprünglich Avast und ich habs bei “Hak5” mitbekommen). Die Angreifer waren eine nordkoreanische Hackergruppe. Man nutzte den Update Prozess des Programmes aus. Also als das Programm sein Update von den Servern der Entwickler ziehen wollte, haben die Angreifer die Datenpakete abgefangen und gegen eine manipulierte Update Datei ausgetauscht. Diese Update Datei installierte dann einen Virus. Möglich war das, weil das Update nicht über HTTPS erfolgte, sondern unverschlüsselt über HTTP und dann wahrscheinlich auch noch ohne eine Prüfung des Filehashs und eines Keys. Von Avast heißt es, dass Phishing Mails oder ähnliches verwendet wurden. Mit denen wurde dann wahrscheinlich der Datenstrom über einen Proxy oder so umgeleitet (Malware, Virus..). So oder so! Sie konnten die Daten manipulieren und der Virenschutz führte die manipulierte Datei aus (die Datei hieß wohl sogar auch anders als die originale Updatedatei). Und gleich noch eine Sache zu “Docker”! Versionen unter 20.10.9 können per einem lokalen Angriff ausgehebelt werden. Das liegt an dem gesetzten Executive Bit( 4[r],2[w],1[x]) in “/var/lib/docker”. Letztlich ermöglicht das den Zugriff auf ein Dock. Das kann dann zum Beispiel mit einem angepassten Script wiederum Root Rechte ermöglichen.  

 

Samsung: Update für LTE TDD. Ich zitiere Samsung: “Die regionale Unterstützung für den LTE TDD Bereich wurde aktualisiert. Beachte, dass Modelle, die in Deutschland gekauft wurden, in den folgenden Ländern keine Signale in LTE TDD Bändern empfangen können: Belgien, Dänemark, Deutschland…usw.”. Also in der Summe in halb Europa nicht. LTE TDD ermöglicht Download und Upload auf der selben Frequenz, d.h. man kann in der Summe etwas weniger Daten übertragen, aber man benötigt weniger Frequenzen. Und die verringerte Übertragungsrate wäre nicht ganz so niedrig bzw. hätte man weniger Einschränkungen, aber nur wenn dieses asymmetrisch erfolgt, das oft der Fall ist. TDD ist nämlich ein Time Multiplex Verfahren. Bei diesem Verfahren wird immer zwischen Daten senden und Daten empfangen sehr schnell umgeschaltet. Hat man sehr wenige Daten zum Senden, dann hat man mehr Platz für den Download auf der “Leitung”. Genauso umgekehrt. Letztlich hängen Vor und Nachteile auch vom Mobilfunkanbieter ab. Muss dieser weniger Frequenzen erwerben, dann könnten Tarife preiswerter werden, aber bei akzeptablen Übertragungsraten. Aber vorerst nicht bei uns. 

 

Nothing

Das neue Nothing Phone 2a gibt es jetzt mit 1&1 Vertrag! Das Phone wird der Mittelklasse zugeordnet, aber das ist so nicht ganz korrekt. Beim Nothing Phone steckt nämlich mehr dahinter: Eine Philosophie. Ich fange mal mit der Technik an… Nee, mit dem Aussehen! Extravagant! 

Jetzt die Technik! Im Nothing Phone 2a ist als Recheneinheit ein Mediatek Dimensity 7200 Pro verbaut. Diese CPU wird durch ihr Leistungsvermögen ebenfalls der Mittelklasse zugeordnet. Aber die heutigen CPUs rechnen nicht nur einfach so vor sich hin, sondern versuchen, effizient vor sich hin zu rechnen. Und das ist ein Merkmal der Mediatek. Die CPUs haben Leistung, aber versuchen gleichzeitig Energie zu sparen. Die Leistung ist ausreichend für alle Tätigkeiten, die auf einem Smartphone anfallen, inkl. 5G und Wifi 6.

 

Ihr wollt auf dem Smartphone spielen? Kein Problem! Dafür ist eine

ARM Mali G610MC4 GPU verbaut. Aber der Teufel steckt im Detail! Der Grafikchip war mal gehobene Klasse (Ja, schon wieder das Klassensystem). Das war vor 2 Jahren. Aktuelle Grafikchips, z.Bsp. von den Samsung S24 und S23 Modellen inkl. dem FE, unterstützen Raytracing (bessere Darstellung von Schatten ohne große Rechenleistung). Das hat diese Mali GPU noch nicht. Die neuen ARM GPUs haben es, aber diese nicht. Geht davon die Welt unter? Wenn es unterstützt wird, dann ist es toll, weil es in zusätzlichen Grafikeffekten resultieren kann. Untergehen tut die Welt davon nicht. Anti Aliasing (feinere Darstellung von Grafiken) sollte der 610 wieder unterstützen und auch die Rechenleistung ist okay, aber eben nicht überragend. Dafür ist der Stromverbrauch scheinbar gering. Ansonsten sollte das Nothing Phone 2 vom vorigen Jahr im direkten Vergleich mehr Leistung entwickeln. Raytracing findet man dort auch nicht, aber dafür eine optimierte, schnelle Grafikdarstellung. Kamera und Display sind sich ähnlich. Das Display ist AMOLED mit max. 120Hz Bildwiederholrate und es wird eine Auflösung von FHD+ erzielt mit einer sehr hohen Helligkeit. Außerdem wird der vollständige DCI P3 Farbraum abgedeckt. Das resultiert in sehr realistischen Farben, die allerdings nicht auf jedem PC Monitor bzw. Bildbearbeitungsprogramm wiedergegeben werden (Fotos sehen dann mit Sicherheit auf dem Smartphone besser aus). Die Qualität der Aufnahmen mit der Kamera ist hoch. Gemachte Fotos könnt ihr euch auf der Herstellerseite anschauen: https://de.nothing.tech/pages/phone-2a . Dort könnt ihr euch auch das Smartphone ohne Vertrag bestellen. Einen passenden Mobilfunkvertrag ohne Smartphone Bindung kann ich dann wieder anbieten. 

 

Das System des Smartphones ist ein angepasstes Android 14. Updates soll es noch bis 2027 geben. Sicherheitsaktualisierungen könnten noch etwas länger folgen, aber man sollte nicht davon ausgehen (in unabhängigen Quellen stand etwas bis 2029, aber ich habe keine Aussage von Nothing). Erwerbt ihr aktuell das Gerät, dann führt gleich mal ein Update durch. Nothing hat beim System nachgearbeitet.

 

Das Nothing Phone ist ein Öko Phone. Der CO2 Abdruck soll geringer sein, weil man viele recycelte Metalle verwendet und Kunststoff zu 50% aus nachhaltigen Quellen hergestellt wird (keine Ahnung wo das herkommt). Mit einer Akkuladung werdet ihr wahrscheinlich weiter kommen als mit den neuen S24 Modellen von Samsung, aber dafür müssen wir Abstriche in der Leistung machen. Dafür scheint der Akku schneller zu laden als bei den S24 Modellen. Ein weiterer Punkt oder Herausforderung war der Preis. Das Smartphone ist preiswert! Und deswegen ist es kein wirkliches Klassenphone. Der Kauf bzw. ein Vertrag ist auch eine Entscheidung in eine Philosophie des Umweltbewusstsein. Ob etwas davon "Greenwashing" ist, das kann ich nicht abschätzen. Tatsache ist, dass in jedem Smartphone seltene und edle Mineralien verbaut sind und die Verarbeitung nur industriell erfolgen kann. Von Kunststoff mal ganz zu schweigen. Deswegen verwundert mich ein wenig der Update Zeitraum. Auch, weil intensive Tests mit dem Gerät durchgeführt wurden und eigentlich von einer längeren Haltbarkeit ausgegangen werden kann. Wahrscheinlich zu hohe Entwicklungskosten. Trotzdem ein tolles Gerät!