Quantcast
Channel: spackblog

Eine kleine Klassenkunde von Offroad-RC-Cars

$
0
0

Ich bin immer wieder erstaunt, wie selbstverständlich von den verschiedenen Fahrzeugklassen im Offroad-RC-Car-Bereich gesprochen wird, ohne dass das mal irgendwo griffig definiert würde. Jeder hat eine Vorstellung, davon, was ein Buggy ist, aber vergleicht man den klassischen Strandbuggy der 1970er-Jahre mit einem Modellbaubuggy, bleiben gar nicht mehr so viele Gemeinsamkeiten übrig. Also hier mal ein Versuch, einer griffigen Einteilung.

  1. Der Buggy: Ein Klassiker. Freistehende und weit ausgestellte, relativ schmal wirkende Räder, geduckte Haltung (geringe Bodenfreiheit), eng anliegende Karosserie, großer Heckflügel, verbringt einen guten Teil der Fahrzeit eines Rennens in der Luft. Vorteile: sehr wendig und stabil zu fahren, kompakt, smoothes Fahrbild, souveräner Auftritt. Nachteile: lieber auf der Rennstrecke unterwegs, als irgendwo sonst. Typische Beispiele: Losi 8ight, Kyosho Inferno, Team Associated RC10B64.

  2. Der Truggy: Ein Buggy mit etwas längeren Schwingen (=mehr Bodenfreiheit und vor allem noch mehr Federweg), größeren, vor allem aber breiteren Rädern und einer viel größeren Truck-Karosserie oft mit Spoiler statt Heckflügel. Im Detail mal mehr mal weniger viele weitere Unterschiede, aber an sich konstruktiv sehr ähnlich. Vorteile: funktioniert abseits von Rennstrecken besser als der Buggy, noch smootheres Fahrbild und souveränerer Auftritt. Nachteil: fliegt irgendwie nicht so gut und ist allgemein weniger agil und definiert auf der Strecke. Typische Beispiele: HPI Trophy Truggy, XRAY XT2, Losi 22 T.

  3. Der Monstertruck: Der andere Klassiker. Freistehende, vergleichsweise riesige Räder, sehr stabile Konstruktion, verschiedene Karosserien (Standard sind Pick-Ups, aber auch Käfer oder was auch immer einem gerade einfällt), schwer, meistens hoch aufbauend, einige Varianten aber auch sehr geduckt (kaum über die Räder hinausragend). Besonders beliebt für Einsatzszenarien, bei denen viel Airtime mit Saltos angesagt ist. Fast nie auf einer Rennstrecke anzutreffen und auf den meisten wegen des Zerstörungspotenzials auch nicht zugelassen. Vorteile: sehr robust, fährt überall einfach drüber, tolle Airtime-Action in der Kiesgrube, Muckibudenauftritt, Fun Fun Fun beim Bashen. Nachteile: schwer, hoher Schwerpunkt, selten agil unterwegs, vergleichsweise teuer. Typische Beispiele: Traxxas X-Maxx, Traxxas E-Revo, Losi LST, Arrma Nero.

  4. Der Shourt Cource Truck (SC oder SCT): Eigentlich eine Buggy-Variante, aber mit ein paar entscheidenden konzeptionellen Änderungen. Die Pick-Up-Karosserie bildet die Außengrenze, die Räder mit flacher Lauffläche (statt rund wie beim Buggy) stehen nicht frei und es gibt stabile Kollisionsbügel an allen Seiten. Im Ergebnis darf noch in Maßen gerempelt werden, wo die Buggys mit ihren freistehenden Rädern sich längst gegenseitig von der Strecke gehebelt hätten. Das Fahrbild ist auch ein komplett anderes, weil durch die dominierende Karosserie alles viel weniger hoppelig aussieht. Eine seltsame Mischung aus Behäbig- und Wendigkeit. Vorteile: Rempeln erlaubt, wirkt sehr groß, ist er meistens auch, actionreiches Fahrbild. Nachteile: Kein so exaktes Wie-auf-Schienen-Fahren wie der Buggy, abseits der Rennstrecke von allen Bauarten am ungeeignetsten, Saltos besser bleiben lassen! Typische Beispiele: Traxxas Slash, Losi 22 SCT, Arrma Senton.

  5. Sonderformen: Wüstenbuggys sehen cooler aus als Buggys, finden aber auf der Rennstrecke nicht statt. Crawler kriechen mit ihren weit verschränkbaren Starrachsen spektakulär über wahnwitzige Hindernisse, das ist etwas ganz anderes, aber auf seine Weise sehr cool. Scale Crawler sehen dabei auch noch außen und vong Fahrwerk her aus, wie 1 richtiger Geländewagen (Land Rover, Toyota).

Buggy, Truggy und SCT gibt es mit Heckantrieb und Allrad, die anderen fast nur mit Allrad. Verbrenner trifft man fast nur noch in 1/8er Buggys/Truggys und (immer weniger) in Monstertrucks an, bei allem anderen dominiert inzwischen der bürstenlose Elektroantrieb mit LiPo-Akkus. Alle diese Bauformen gibt es, weil sie ihre Berechtigung haben. Leute, bei denen Geld keine Rolle zu spielen scheint, haben daher einen ganzen Fuhrpark. Das liegt auch daran, dass immer mal wieder etwas kaputtgeht und man dann mit dem Modell eine Weile nicht fahren kann (etwa bis das Ersatzteil da ist).


Glasfaserausbau aus Nachbarschaftssicht

$
0
0

Wenn es um das Thema Glasfaserausbau geht, beziehungsweise konkret um den Glasfaserausbau bis in die Häuser, herrschen nach meiner Erfahrung völlig falsche Vorstellungen vor, was den tatsächlichen Aufwand angeht. Ich hatte mir das immer so vorgestellt, dass da ein Bautrupp kommt und in irgendeiner Weise alle Straßen, Gehwege und Vorgärten aufreißt, um die Kabel zu verlegen. Da liest man ja immer mal wieder von revolutionär einfacheren Verlegetechniken, wo dann etwa nur ein schmaler Schlitz gefräst wird, der auch sogleich mit Kabel drin wieder verschlossen wird.

Nun wohne ich seit anderthalb Jahren in einem akuten FTTH-Ausbaugebiet und konnte die Arbeiten direkt mitvervolgen. Unser Neubau wurde naheliegenderweise direkt beim Bau angeschlossen, hier rundherum ist aber Bestandsbebauung aus den 1970er Jahren, die erst danach sukzessive versorgt wird. Und was soll ich sagen? Wenn ich nicht wüsste, was der Bautrupp mit den niederländischen Kennzeichen da macht, ich würde nicht darauf kommen, dass hier gerade jedes Haus einen Glasfaseranschluss bekommt. Gelegentlich wird mal was aufgebuddelt und man hört Minibagger und dann Rüttelplatten, aber die meiste Zeit bekomme ich nichts mit. Also davon abgesehen, dass an immer mehr Häusern an der Außenwand ein aufgerolltes orangefarbenes Kabelende aus dem Boden guckt. Ich habe keinen aufgebuddelten Vorgarten gesehen, keine tagelang gesperrten Wege, keinerlei Unannehmlichkeiten. Hier und da steht ein Zelt über den Verteilerkästen, daran erkennt man, dass die Anschlüsse an dieser Straße schon geschaltet werden.

Also falls die Telekom mal wieder so tut, als bräuchte man an sich mal wieder einen Bombenkrieg oder ähnliches, um eine Gelegenheit zu schaffen, flächendeckend FTTH auszubauen, wisst Ihr jetzt: Bullshit, das geht erstaunlich flott, sauber und arm an Belästigingen für die Anwohner. Niemand gräbt Eure Vorgärten um, die Straßen in Eurem Viertel vernarben nicht völlig. FTTH flächendeckend ist sehr wohl möglich.

Und zu den Kosten herrschen auch merkwürdige Vorstellungen. Der vollständige Glasfaserauabau hier in Monheim kostet die Stadt nach aktuellem Stand 27 Millionen Euro (vgl. Haushaltsplan Monheim 2018). 2014 war noch von 21 Millionen die Rede. So oder so ist das vergleichsweise überschaubar, denn Monheim hat rund 43.000 Einwohner und alle davon bekommen einen FTTH-Anschluss innerhalb von wenigen Jahren. Also explizit nicht nur Gewerbegebiete oder Viertel, bei denen der Ausbau günstig ist und/oder die Nachfrage gesichert, sondern einfach alle. Die Kunden zahlen auch keine krassen Anschlussgebühren selber, sondern bekommen den Anschluss frei haus, wenn sie unterschreiben, dass der Bautrupp auf ihr Grundstück darf. Pro Kopf investiert die Stadt dabei deutlich unter 1000 Euro, das ist ein Betrag, der sogar in endlicher Zeit durch Einnahmen aus den Anschlüssen wieder reingeholt wird und danach ist das gesamte Vorhaben ein Plusgeschäft für die Stadt. Auch finanziell ist FTTH also flächendeckend sehr wohl möglich und das auch einigermaßen kurzfristig.

Und ich kann es gar nicht oft genug betonen: Internetversorgung ist wie Wasser, Strom, Kanal und Straßen Infrastruktur und damit originär kommunale Aufgabe. Mir ist völlig schleierhaft, warum sich diese Sichtweise noch immer nicht durchgesetzt hat. Wieso sollte die Letzte Meile der Privatwirtschaft überlassen werden, die mangels Universaldienstverpflichtung nach wirtschaftlichen Kriterien entscheidet, ob und wann Menschen und Gewerbe an zeitgemäßer Kommunikation teilnehmen dürfen? Wer ist überhaupt auf diese Idee gekommen? Also nichts gegen Wettbewerb bei der letztlichen Erfüllung der Telekommunikationsdienste. Aber die konkreten Leitungen in die Häuser gibt es vorzugsweise einmal, alles andere ist verschwenderischer Wahnsinn. Man stelle sich mal vor, ein liberalisierter Strommarkt würde dazu führen, dass Anbieter anfangen, eine zweite und dritte Stromleitung in die Häuser zu legen.

Die offensichtlich einzig sinnvolle Lösung ist hier wie da ein Open-Access-Zugangsmodell auf Infrastruktur, die ein (kommunaler) Netzbetreiber diskriminierungsfrei unterhält. Dass wir beim Thema FTTH noch immer einen ganz anderen Diskussionsstand haben, ist der eigentliche Skandal. Digitalisierung als Buzzword überall, aber die Infrastrukturfrage soll sich von alleine regeln, irgendwie. Oder wie ist das gedacht? Ich bin froh, dass ich in Monheim wohne, wo die Stadt das Thema rechtzeitig aktiv angegangen ist. Nicht nur, aber auch weil das ein echter Standortfaktor für Unternehmen ist. Das ist so naheliegend, offensichtlich und zwingend, dass ich einigermaßen fassungslos bin, dass das erst so wenige Kommunen erkannt haben. Ob die auf göttliche Intervention warten? Oder auf ein Machtwort der Bundesregierung? Einer CDU-geführten Bundesregierung, die in den letzten 12 Jahren alles dafür getan hat, dass hier der Stillstand gefestigt wird? Open-Access ist alternativlos in meinen Augen, aber darauf werden wir noch zehn bis zwanzig Jahre warten und bis dahin werde ich mit dem latent bedrohlichen Gefühl leben müssen, dass mein schöner Glasfaseranschluss nur eine blöde Tarifentscheidung des Anbieters von der Nutzlosigkeit entfernt ist. Und nur 300 Meter entfernt von hier wohnen Leute, die davon nur träumen können, weil sie in Düsseldorf wohnen, wo man der Auffassung ist, dass Glasfaser nur für Gewerbegebiete nötig ist. Weswegen man höflich bei Vodafone (deren Deutschlandzentrale in Düsseldorf ansässig ist) und der Telekom nachfragt, ob die nicht langsam mal die ersten Gewerbebetriebe versorgen können, damit die nicht in den Speckgürtel abwandern, wo die Gerwerbesteuer niedrig und die Glasfaser bereits vorhanden ist. Infrastruktur als Standortfaktor, wer hatte das schon auf dem Zettel?

Ein paar Gedanken zum "kostenlosen"öffentlichen Nahverkehr

$
0
0

tl;dr: erst mal umfangreiche Infrastrukturinvestitionen tätigen, bevor man großmäuligen Aktionismus in den Raum stellt.

Also ja, gerne, meine Rede. Als Fernziel. Bis dahin muss es aber vor allem mehr Infrastruktur geben. Hier in Düsseldorf ist der ÖPNV schon ziemlich am Limit, da hat die Rheinbahn schon Recht. Vor allem das Thema Park&Ride oder allgemein die Frage, wie die Pendler zuverlässig und bequem an die S-Bahn kommen, steht ganz vorne auf der Liste der Hindernisse, die weg müssen. Dann muss es genug Fahrzeuge geben, damit es nicht passiert, dass im Berufsverkehr regelmäßig nur ein Halbzug kommt, weil was kaputt ist. Sowas lässt sich ja planen und kompensieren, wenn man nicht restlos jeden Wagen in Betrieb hält. Und Fahrpersonal steht auch nicht ad hoc in beliebiger Menge zur Verfügung.

Also ich halte es für wahnsinnig offensichtlich, dass es massive Investitionen in den ÖPNV geben muss und auch die Kosten für die Nutzer müssen runter. Damit kann man ja anfangen, bevor man ein plakatives "kostenlos" in den Raum stellt. Überhaupt, "kostenlos", bitte nicht. Da ist gar nichts kostenlos. Es geht doch darum, dass man als Fernziel herbeiführen möchte, dass die Leute einfach einsteigen und niemand mehr ein Ticket braucht und die Entscheidung für oder gegen die Nutzung nicht davon abhängt, ob man jetzt 5 Euro einwirft und nochmal 5 Euro, um wieder zurückzukommen. Der Begriff dafür ist fahrscheinlos. Kostenlos ist das ganz und gar nicht, das muss massiv umgelegt werden. Ein Tweet in meiner Timeline behauptete neulich, dass die Dieselsubventionen in Deutschland höher ausfallen, als die Einnahmen der Großstädte durch den Ticketverkauf. Oder so. Ob das stimmt, kann ich nicht beurteilen, aber das wäre doch mal ein Ansatzpunkt für eine Lösung, die alle passabel finden können: Weg mit den Dieselsubventionen, das freiwerdende Geld fließt in den Ausbau des ÖPNV und die deutlich stärkere Subventionierung der Ticketpreise. Dafür werden die Fahrverbote ausgesetzt in der Hoffnung, dass die Maßnahmen den Verkehr in den belasteten Städten hinreichend reduzieren können. Ich müsste dann meinen 2013er Diesel nicht verschrotten, für den ich einen satten und bei meiner Fahrleistung nicht wieder reinholbaren Aufpreis bezahlt habe, weil er weniger CO2 ausstößt und allgemein deutlich sparsamer mit den Ressourcen umgeht. Das Thema Stickoxide wurde erst danach so hochgehängt. Jaja, ich habe aus ökologischen Erwägungen einen Diesel mit Partikelfilter gekauft und weil ich Effizienz schätze. Das aber nur am Rande, aber nun zurück zum Thema.

Wir brauchen eine City-Maut, darum werden jedenfalls die betroffenen Städte nicht herumkommen. Dazu gehört dann auch sowas wie der Nachweis von Parkraum für die Anmeldung eines Fahrzeugs und wenn öffentlicher Parkraum benötigt wird, wird je nach Viertel entsprechend zur Kasse gebeten (über eine Quartiersgarage zum Beispiel, auch so ein Thema). Es muss zum Luxus werden, ein Auto in hochverdichteten Wohngebieten zu halten, erst recht mehrere. Und die Pendler bezahlen die Maut oder steigen an gut erreichbaren P&R-Parkhäusern in massiv ausgebauten ÖPNV um. Das geht alles nicht heute, morgen auch nicht. Aber irgendwann muss man damit mal anfangen. Ich hatte schon häufiger auf Holland verwiesen, man schaue sich da mal beispielhaft Utrecht an. Da kann man schon mit dem Auto reinfahren, aber viel besser und billiger ist das P&R-Angebot: 5 Euro für den Tag in einem der gut erreichbaren Parkhäuser mit direkter ÖPNV-Anbindung an die City und der Trick ist, dass da schon eine ÖPNV-Tageskarte für 5 Personen enthalten ist. Man muss nur wollen. Amsterdam ist da krasser drauf, da dürfen selbst Anwohner nur mit Ausnahmegenehmigung mit dem Auto einfahren. So oder so: Wenn man Pendler und Shoppingkunden vom Auto wegbringen will, muss man gute Alternativen bieten. 5 Euro für eine Fahrt vom Speckgürtel in die City und nochmal 5 Euro zurück, wohlgemerkt für eine Person, kann es jedenfalls nicht sein. Und dass man bei den begrenzten P&R-Kapazitäten nicht sicher sein kann, einen Platz zu bekommen, ist auch nicht hilfreich.

Und natürlich die Barrierefreiheit. Don't get me started! Natürlich kann man ein Parkhaus derart an einen S-Bahn-Haltepunkt anbinden, dass man keine weiten Wege zurücklegen muss, vielleicht gar einen direkten Zugang zum Bahnsteig einplanen. Und natürliuch kann man Aufzüge (für Leute mit Kinderwagen, Gepäck oder körperlichen Beeinträchtigungen) so gestalten, dass sie nicht ständig kaputt sind. Und wenn sie kaputt sind, kann man sie in endlicher Zeit (= nicht in einem Horiziont von mehreren Wochen) reparieren. Wenn man will. Man könnte sogar so weit gehen und für Redundanzen sorgen, also einfach mal zwei Aufzüge vorhalten, wenn man nicht sicherstellen kann oder will, dass der eine Aufzug taggleich repariert wird. Und mir fallen keine plausiblen Ausreden ein, wieso es immer noch S-Bahn-Haltepunkte ganz ohne Aufzug gibt. Wenn ich in Langenfeld-Berghausen P&R machen möchte, muss ich vom Parkplatz ganz außen rum auf die Brücke laufen oder den Kinderwagen eine sehr lange und sehr steile Treppe mit schmaler Kinderwagenspur hochschieben (lieber nicht, glaubt mir). Oben angekommen darf ich sogleich den Kinderwagen eine weitere vielstufige Treppe wieder heruntertragen. Und Bonus: Wenn ich später wieder wegfahren will, stehe ich gerne mal fünf Minuten und länger an der Ausfahrt vom Parkplatz, weil da keine Amppel ist und der Querverkehr äußerst zahlreich. Das alles macht so viel Spaß wie eine kalte Dusche und weil man sich genau eine Station außerhalb des Düsseldorfer Tarifgebiets befindet, kosten die Tickets (für zwei Erwachsene) zur Strafe fast so viel wie der Sprit für eine halbe Tankfüllung. Damit käme ich locker bis Münster und zurück. Wer da dennoch mit der Bahn fährt, braucht schon einen ausgeprägten Enthusiasmus. Ach ja, der P&R-Platz in Hellerhof platzt aus allen Nähten, ist also nur bis etwa 08:30 Uhr eine Alternative.

Unter anderem deswegen wird das Thema fahrscheinloser ÖPNV sehr sicher zuerst in Speckgürtelgemeinden funktionieren. Monheim hat ein gut ausgebautes Busnetz, das außer zu Schulbeginnzeiten mäßig ausgelastet ist. Und Monheim hat viele Pendler, die man wunderbar auf die Schiene bringen kann, wenn man sie denn dorthin bekommt. Der Ticket-2000-Aufpreis für Preisstufe B statt A beträgt aber 30 Euro im Monat, da überlegt man sich gut, ob man nicht lieber die fantastische Autobahnanbindung nutzt. In solchen Gemeinden drängt es sich geradezu auf, Experimente in der Richtung zu machen. In meiner Siedlung bin ich bei einigen Nachbarn jedenfalls bass erstaunt, wenn ich sie mal ohne ihr Auto drumrum außerhalb ihres Grundstücks antreffe. Da geht noch was. Das Busnetz in Monheim ist jedenfalls recht überschaubar und die Abhängigkeiten bestehen in erster Linie in der zuverlässigen Anbindung an die drei einschlägigen S-Bahn-Haltepunkte. Monheim stockt gerade die 1,7 Millionen Buslikometer pro Jahr auf etwa 2,5 Millionen Buskilometer auf. Bei mir unbekannten, aber auf Basis von Beispielwerten angesetzten Kilometerkosten im Bereich von zwei bis vier Euro sind die Kosten insgesamt einigermaßen überschaubar und für die Gemeine durchaus zu stemmen. Wenn man will. Oder man legt das irgendwie direkt auf die gut 40.000 Bürger um, dann wären das für alle knapp 21€ pro Monat. Die GEZ ist kaum billiger. Und vor allem, und das ist das völlig Absurde an der Sache, diese 21 Euro liegen unter den 30 Euro, die der Aufpreis eines Ticket 2000 Preisstufe B gegenüber Preisstufe A kostet (ja, Kinder, ja, andere Ermäßigungsberechtigte, das ist ja sowieso alles grob überschlagen). Ich denke aber, dass man darüber einfach mal ganz laut nachdenken sollte. Und wenn die neue Bundesregierung lediglich eine Rechtsgrundlage schafft, auf der Gemeinden die ÖPNV-Kosten auf alle ihre Bürger umlegen können, dann wäre das ja schon mal ein Ergebnis, mit dem man etwas anfangen kann. Bei aller Kritik an großmäuligen und nicht durchdachten Vorstößen. Das Problem ist ja akut vorhanden und will gelöst werden. Nicht nur die Schadstoffbelastung in den Städten wird primär durch die Pendler über die Grenzwerte des Vertretbaren gejubelt, sondern auch wenn alle Elektroautos fahren würden, stünden die im Stau. Das ist für alle lästig und volkswirtschaftlich möchte man den dadurch entstehenden Schaden lieber nicht ausrechnen. Dabei käme nämlich vermutlich heraus, dass man sofort jedweden motorisierten Individualverkehr unterbinden muss. Wollen wir da hin? Wohl eher nicht. Aber wenn wir durchaus realistische 30% der jetzigen Autopendler in Bus und Bahn bekämen, dann wäre allen schon viel geholfen.

Meine erklärliche Herablassung gegenüber Bürstenmotoren

$
0
0

Ich schäme mich gelegentlich für meine Herablassung gegenüber RTR-Modellen mit Bürstenmotoren. Dabei ist die eigentlich sehr berechtigt, weil sie aus meiner Erfahrung gespeist wird. Also anders als etwa meine merkwürdige Herablassung gegenüber Fachhochschulen, bei der ich meine Ahnungslosigkeit bereits am ersten Tag dort einräumen musste. Die bürstenlosen Elektroantriebe haben sich im RC-Modellbau aus gutem Grund für alle ernsthaften Einsatzzwecke durchgesetzt, die Überlegenheit ist einfach zu offensichtlich. Ausnahme sind Crawler, weil es dort nie auf Leistung ankommt, sondern auf eine gewisse Feinfühligkeit in Sachen Drehmoment, was Bürstenmotoren sehr gut hinbekommen.

Was ich eigentlich erzählen wollte, ist meine eigene Geschichte mit Antrieben von ferngesteuerten Autos. Das ging als Kind los, da hatte ich zwei Spielzeugkarren, die mit uralten und schwachbrüstigen NiCd-AA-Akkus betrieben wurden. Von Leistung war da nicht zu sprechen, den einigermaßen steilen Hügel auf dem Spielplatz hinterm Haus kamen die jedenfalls nur manchmal mit viel Schwung hoch, die Antriebe waren sogar zu schwach, um die griplosen Spielzeugreifen auf dem sandigen Pflaster des Hügels durchdrehen zu lassen. Da war es dann auch fast egal, dass die Reichweite der Funken etwa 15 Meter betrug und die Lenkung so schwach war, dass der Wendekreis trotz der geringen Geschwindigkeit bedrohlich anwuchs, sobald man Vollgas fuhr. Was für ein Scheiß und dafür noch ziemlich teuer. Noch heute fragen mich Leute auf der Straße immer wieder wahlweise nach Endgeschwindigkeit meines Fahrzeugs ("schneller als man es sinnvoll handhaben kann") oder der Reichweite der Funke ("weiter als man die Karre noch sinnvoll erkennen kann").

Kleiner Zeitsprung in meine 20er. Mir mangelt es an Geld, ich wohne (wieder) bei den Eltern und studiere vor mich hin. Dennoch flammt meine alte Liebe auf und ich kaufe ohne vorheriges Reinnerden einen Tamiya-Baukasten mit TT-01-Chassis und Ferrari-Enzo-Karosserie, die ich schwarz lackiere. Sieht geil aus, kostet mich aber über 200 Euro und ist eine heftige Enttäuschung: Im Karton liegt allen Ernstes ein mechanischer Fahrschalter, der auf niedrigen Stufen Teile der Energie am Motor vorbei in einem Widerstand verheizt. Die Erkenntnis darüber und die Anwesenheit eines solchen Relikts in einem 2002 aktuellen Baukasten gehören zu den größten WTFs in meinem Leben. Bonus: Die Aufhängungsteile aus Plastikspritzguss brauchen viel Nacharbeit um einigermaßen leichtgängig zu arbeiten und das Modell hat Bronzegleitlager, in denen die Antriebswellen schon im Neuzustand gruselige Geräusche und Vibrationen von sich geben. Weitere zig Euro später, wir sind bald bei 300€, habe ich einen Satz Kugellager und einen billigen Fahrtregler verbaut. Der ist defekt, also bekomme ich Ersatz. Aber auch der Ersatz erweist sich als derart schlecht, dass es keine Freude ist, damit zu fahren. Bis dahin war mir nicht klar, wie groß die erfühlbaren Unterschiede von Fahrtreglern bereits mit diesem lahmen Baukastenmotor sein können. Die Erkenntnis trifft mich erst später mit voller Wucht, als ich einen richtigen Regler im die Karte baue. Geht doch. Eine weitere Erkenntnis: Ich habe fast 300 Euro für Scheiß ausgegeben, das war viel Geld für mich.

Nächster Anlauf ein knappes Jahr später: Diesmal bin ich vorbereitet. Ich habe alles leergelesen, was ich finden konnte, Zeitschriften, Foren, Prospekte. YouTube und Blogs gab es noch nicht. Die Kopfressourcen, die da reingeflossen sind (und in allerlei andere Hobbys), fehlten mir übrigens sehr bei meinem Studium, das hätte mir zu Denken geben sollen. Jedenfalls war mir klar was ich will, es wird ein Team Losi XXX-T Sport RTR. Der kostete keine 400 Euro und war sein Geld absolut wert. Vor allem im Vergleich zum 300€-Tamiya-Reinfall. Meine Verbundenheit mit dem Fahrzeug ist ungebrochen, ich habe sogar überlegt, einen bei eBay zu kaufen als Ersatz für den aus der Garage geklauten. Das ist deswegen keine gute Idee, weil man kaum noch Ersatzteile bekommt und neuere Karren nochmals viel besser sind.

Die Karre hatte einen recht kräftigen, aber nicht sonderlich flotten Bürstenmotor an einem tollen GM-Regler. Der Motor wurde schnell durch etwas schnelleres ersetzt, denn der Rest von der Karre war zu weit höherem berufen, soviel war sehr schnell klar. Schnell wurde aber auch sehr klar, dass die Bürstenmotorentechnik hier am Limit operierte: Die ganz flotten haben Kohlen zum Frühstück verbraten und schon mein Motor wurde einmal so heiß, dass sich das Anschlusskabel abgelötet hat. Das passiert jenseits der 300 Grad. Hui. Die NiMH-Akkus damals waren auch hart am Limit und zusammen mit der hohen Vetlustleistung der Motoren kam letztlich ernüchternd wenig an den Rädern an. Das war schon lustig, keine Frage, aber mir war klar, dass ich mehr will, dass ich das Fahrwerk am Limit sehen will.

Zu der Zeit kamen die bürstenlosen Motoren auf. Ich war sofort überzeugt, weil mir die Sache mit den Kohlen schon immer verdächtig war. Also kaufte ich für viel Geld einen guten Motor und einen tollen Regler von GM. Das war es, was für eine Leistungssteigerung! Nie wieder Bürstenmotoren! Im Ernst: Wer einmal einen (guten) bürstenlosen Antrieb gefahren ist, macht es darunter nicht mehr. Endlich war der Losi angemessen motorisiert. Und er kam damit prima klar.

Dass das keine Selbstverständlichkeit ist, musste ich bei meinem LRP Shark 18 auf die teure Tour erfahren. Der war ein eBay-Schnäppchen und gut vorgetunt. Bis auf die Antriebskomponenten, die auf den schwachen Bürstenantrieb ausgelegt waren. Es dauerte wenige Minuten, bis der nachgekaufte Bürstenlose die erste Antriebsachse einfach abgedreht hatte. Die zweite folgte kurz darauf. Die Dinger waren aus ziemlich flexiblem Kunststoff gefertigt und das hohe Drehmoment (ohne Rutschkupplung als Begrenzer dazwischen) hat die einfach so weit verformt, dass sie an der gleichen Stelle einfach aufgaben. Also habe ich Metallantriebswellen beschafft, die echt teuer waren. Wenige Minuten später gab das erste Differenzial auf. Zack, durch, gleiches Problem. Die Alu-Differenziale waren vergleichsweise günstig, aber als nächstes waren die vorderen Radträger dran, deren Alu-Ersatz war schmerzhaft teuer. Ich habe dann auf weitere Experimente verzichtet, auch weil ich umzog und kaum noch zum Fahren kam.

Was lernen wir? Die Einsteigervarianten von guten Modellen sind noch heute teilweise mit veralteter Bürstentechnik im Verkauf. Das spart Geld bei Regler und Motor, vor allem aber wird mitunter deutlich bei den Antriebsteilen gespart. Im Verkauf liegen die 50 bis 100 Euro unter ihren bürstenlosen Varianten. Wenn ich eins gelernt habe aus meiner Geschichte, dann dass man diesen Aufpreis bezahlt. Immer und ohne weitere Fragen. Macht man das nicht, kommt der Hunger beim Essen und man zahlt viel mehr für die ganzen Tuningmaßnahmen, als diesen vergleichsweise geringen Aufpreis. Alleine ein angemessener Regler plus Motor übersteigt schon den Aufpreis, die besseren Antriebsteile hat man dann aber noch immer nicht drin.

Man kann das schon in den Werbevideos der Hersteller sehen, wenn man genau darauf achtet: Die Modelle mit Bürstenantrieb sind viel weniger brachial in ihrem Fahrverhalten. Aber genau diese brachiale Entfaltung viel zu hoher Leistung will man haben, früher oder später.

Bei den bürstenlosen RTR-Modellen gehen einige Hersteller inzwischen einen guten Weg: Im Karton liegt ein 6-Zellen-NiMH-Akku, manchmal auch einer mit sieben Zellen. Der ist okay und wenn man es schneller haben will, steigt man erst auf 2S-LiPos um und dann auf 3S. Die Antriebsteile sind dann darauf schon ausgelegt und es kommt kein Frust auf. So muss das. Diese LiPos waren übrigens die zweite Revolution nach den bürstenlosen Motoren. Die maximal abzugebende Leistung ist damit viel höher als selbst bei guten NiMH-Akkus, zudem ist die Energiediche weit höher. Genau was man braucht, wenn man flott von der Stelle kommen will. Aktuelle größere Modelle operieren mit 6S, also mit 22,6 Volt. Das mit NiMH wären 18 Zellen, die man unterkriegen und mitschleppen muss, von der dennoch um Welten geringeren Leistungsabgabe ganz zu schweigen.

Wenn ich da an die miesen NiCd-AA-Zellen meiner Kindheit denke, lächle ich milde, ziehe am Gashebel und sehe meine Karre im Sonnenuntergang verschwinden. Auf gerader und ebener Strecke kann man mal mehr als eine Sekunde Vollgas geben. Könnte ich das meinem Kindheits-Ich erzählen… Das hatte einmal, als es noch im Fahrradkindersitz umhergefahren wurde, neben dem Campingplatz hier in Baumberg mit sehr großen Augen ein echtes Rennen mit richtigen ferngesteuerten Autos gesehen. Das hat sein Leben verändert. Kurz darauf schloss die Strecke und erst 30 Jahre später lüftete sich mir das Geheimnis, dass die bloß nach Berghausen umgezogen waren. Hätte ich das gewusst! Aber woher ohne Internet und ohne Kontakte zur Szene? Aber bei diesem einen Rennen war mir sofort sonnenklar, dass ich, wenn ich groß bin, auch sowas haben und machen will. Mein späteres intensivstes Katalog- und Preislistenstudium führte mir allerdings schnell vor Augen, dass ich als Grundschulkind noch sehr lange nicht groß genug dafür war. Bis in meine 20er hinein hatte ich für mein geringes Budget jedenfalls ganz andere Prioritäten.

Lustige Hyper-V-Wechselspielnotizen

$
0
0

In erster Linie als Notiz für mich schreibe ich kurz nieder, was mir in letzter Zeit mit Hyper-V-Virtualisierung passiert ist.

tl;dr: Im Ergebnis ist alles gut.

Homeserver umgezogen

Mein Windows-Homeserver-2011 ist in die Jahre gekommen und er hat auch kein Hyper-V. Ich möchte ihn aber nicht aufgeben, weil die Clientcomputersicherung eine feine und bequeme Sache ist und ich noch keinen wirklichen Ersatz gefunden habe. Auf der Maschine lief auch eine Ubuntu-Server-VM in VirtualBox, das ich die letzten Jahre mit Tricks als Dienst (ohne Login am Rechner) betrieben hatte. Das ist an sich eine eher wackelige Konstruktion, lief aber eigentlich immer gut. Nun wollte ich aber einen Ubuntu-Desktop als Entwicklungsmaschine aufsetzen, damit ich auch von unterwegs auf mein phpStorm zugreifen kann und dieses zudem lokal auf die Dateien im Webroot. Bislang lief phpStorm lokal auf meinem Rechner im Arbeitszimmer und griff über SMB auf die Dateien auf dem Entwicklungsserver zu. Das war nervig langsam und wenn ich aus dem Büro da dran wollte, musste zuhause der Rechner laufen.

Der neue Plan lautete also: Installiere ein Ubuntu 18.04 in eine VM und darauf den ganzen Entwicklungskram und phpStorm, worauf ich dann über eine Remotedesktoplösung zugreife. Diese VM sollte aber vorzugsweise nicht auf dem veralteten Windows-Homeserver-2011 in Frickellösungen laufen, sondern in einem sauberen Hypervisor, der direkt auf der Hardware läuft und parallel den Homeserver in einer anderen VM unterbringt. Der Hyper-V-Server 2016 drängte sich da förmlich auf. Die Installation geht schnell, aber mangels grafischer Oberfläche muss man von einem Windows-Client aus das Hyper-V verwalten. Ohne Domäne bzw. Active Directory ist das gar nicht so leicht, letztlich half mir diese Anleitung hier.

Im Ergebnis habe ich jetzt einen leichtfüßigen Windows-Server, der nur als Hypervisor arbeitet. Und darin kann ich beliebig viele VMs anlegen. Cool. Ach ja: Ubuntu 18.04 hat ein paar Neuerungen, die echt lästig sind und die zuvor schonmal besser liefen. Erstaunlich. Letztlich arbeite ich jetzt mit X2Go und hole mir das Fenster von phpStorm direkt als Windows-Fenster rüber, also ohne Linux-Desktop in einem Fenster und darin dann phpStorm. Linux ist, was Remitearbeit angeht, echt weiter von RDP unter Windows entfernt, als jemals zuvor. Denn Microsoft hat das echt im Griff, das funktioniert flüssig und gut. X2Go ist auf meinem 4K-Bildschirm etwas unscharf, aber läuft sonst prima.

Nächstes Projekt: Einen Hyper-V-Wirt von Intel auf AMD umziehen

An anderer Stelle musste ein Windows-Server 2012 R2 aufgebohrt werden, weil er neuerdings sich selber (vorwiegend Dateisienste und eine sehr große PostgresSQL Datenbank) und zwei statt zuvor nur einer dicken Windows-10-Desktop-VM stemmen muss. Also weg mit dem Intel Core-i5-Vierkerner aus der 4. Generation und her mit dem AMD Ryzen 2700X mit acht Kernen, 16 Threads und dazu 32GB Arbeitsspeicher. Das sollte reichen. So viele Threads liefert Intel nur in absurd viel teuer und Spectre habe ich nicht ganz vergessen. Also AMD. Image von der System-SSD gemacht, Teile getauscht, Image auf die neue SSD eingespielt, gestartet, läuft auf Anhieb. Sehr cool. Also weg mit den Intel-Treiberresten und her mit den AMD-Treibern. Alles soweit keine Herausforderung, hat etwa zwei Stunden gedauert, wobei die Imagehantiererei fast die gesamte Zeit in Anspruch genommen hat. Alles hätte gut sein können: Aufräumen, nach Hause fahren, das Leben genießen.

Doch dann: In den Hyper-V-Gästen läuft keine 32-Software mehr. Also gar nicht, es passiert einfach nichts, wenn man sie startet. Ach so: Die Windows Problemberichterstattung öffnet einen Thread im Taskmamager, der sich aber nicht zeigt. Man kann dann dabei zusehen, wie von diesem Threads mehrere pro Sekunde spawnen. Aber sonst passiert nichts. Das Internet war nicht hilfreich, scheinbar ist das noch niemandem passiert. Was übrigens nicht half, war Hyper-V zu deinstallieren und neu aufsetzen, dann die Images der alten VMs an frische VMs anzubinden. Die VMs waren auch nicht kaputtgegangen, denn testweise auf einen Intel-Desktop gezogen und dort gestartet lief alles unauffällig. Auch testweise in VirtualBox gestartet lief alles unauffällig. Im Internet hatte ich bei einem ganz anderen Problem einen Screenshot gesehen mit einem Schalter "Zu einem physischen Computer mit einer anderen Prozessorversion migrieren". Klingt nicht schlecht, aber dieser Schalter war im Hyper-V von 2012 R2 nicht mehr an der Stelle wie im Screenshot von 2008 zu finden. Also dachte ich naiverweise, dass Microsoft auf den Trichter gekommen ist, dass man den nicht braucht, denn andere Virtualisierungslösungen brauchen sowas auch nicht und mir ist auch nicht klar, was er bewirkt. Immerhin habe ich Hyper-V frisch installiert und die VMs frisch aufgesetzt und nur die Images übernommen. Was macht dieser Schalter also magisches? Aber sei es drum, der Schalter ist bloß in ein Untermenü gerutscht und wenn man den setzt, ist alles wieder gut.

So werden aus zwei flotten Stündchen dann zehn sehr quälende. Denn das alles muss man ja erstmal herausfinden, verstehen und ganz viel herumprobieren. Und ganz ehrlich: Eigentlich virtualisiert man Systeme, damit genau sowas nicht passiert. Dass man zwischen Intel und AMD wegen abweichender Virtualisierungsfeatures keine Livemigrationen fahren kann, ist nachvollziehbar. Aber dass man einen Schalter braucht, wenn man eine VM offline auf einen anderen Wirt umzieht, ist alles andere als Nachvollziehbar.

Ist Hyper-V also doof? Eigentlich nicht, denn letztlich ist es übersichtlich und funktioniert hervorragend.

Ist AMD doof? Nö. Die VMs rennen jetzt dermaßen flott, dass es eine Freude ist. Und das auf einem Prozessor der 300-Euro-Klasse. Dazu nochmal 300 Euro für schön viel schnellen Speicher, rund 100 Euro für das Board, nochmal 300 Euro für eine schöne große NVMe-SSD und leider eine Grafikkarte, die nichts anderes tut, als den Rechner booten zu lassen und sonst nur Strom zu verbrauchen. Dass AMD bei den größeren Ryzen keine Grafikeinheit einbaut, nervt echt ziemlich. Bei dem Budget hat man bei Intel gerade erst den Prozessor gekauft, wenn überhaupt. Hatte ich erwähnt, dass diese acht Kerne wirklich ziemlich flott sind, wobei ich jeder VM 8GB Speicher und vier von den 16 Threads spendiert habe. Und wem das nicht reicht, der kann sich ja einen Threadripper hinstellen, noch mehr Speicher reinpacken und noch viel mehr VMs betreiben. Und dabei immer noch überschaubar im Preis bleiben (aktuell rund 900€ für 16 Kerne und 1800 für 32 Kerne, also 64 Threads). In Kürze kommen aber auch bei Intel acht Kerne und 16 Threads in der Consumerplattform, dann werden die Karten neu gemischt, vor allem weil Intel eine Grafikeinheit mitbringt. Da muss man nur aufpassen, keinen Intel-Netzwerkchip auf dem Board zu haben, für den es offiziell keine Servertreiber gibt. Das ist nämlich ein blödes Gefummel, die Treiber auf den Server zu bringen, ganz besonders, wenn man keine grafische Oberfläche hat. Mit den Reaktek-Chips gibt es kein Gefummel, die erkennt der Windows Server einfach und gut ist.

Ethische Implikationen von und hyperlokale Wege aus der Paketkalypse

$
0
0

Aktuell wird viel geschrieben über die Paketkalypse und den Umstand, dass einige Paketdienste die Preise anheben werden, zumindest für die Lieferung an die Wohnungstür. Exemplarisch sei dieser Artikel bei golem.de hierzu verlinkt.

Wir haben hier mehrere Aspekte, die man betrachten muss. Einerseits die Sache mit der letzten Meile, die aufwendig und teuer und Ursache allen Übels ist. Andererseits die ethische Fragestellung der prekären Arbeitsverhältnisse in der Branche und die damit verbundene Problematik, überhaupt noch Leute zu finden, die den Job für das Geld (und zu den Bedingungen) machen. Und dann die Frage nach neuen Wegen, um der Sache Herr zu werden.

Beginnen wir mit den Arbeitsverhältnissen. Nicht erst seit sich das Neo Magazin Royale der Sache angenommen hat ist bekannt, dass in der Branche – bei einigen Anbietern mehr, bei anderen weniger – recht prekäre Arbeitsverhältnisse herrschen, kombiniert mit hohem Druck. Wenn man sich die Fahrer (nicht-generisches Maskulinum, ich habe bislang erst eine Frau erlebt, das war bei Amazon) anschaut, fällt einem jenseits von DHL (anderswo auch da) recht schnell auf, wie gehetzt und kaputt die Leute oft sind, die bei einem klingeln. Wenn man sich näher beschäftigt, möchte man am liebsten sofort jede Teilnahme an diesem System aufgeben. Wenn das so einfach wäre. Da ist diese Story mit Hermes in Düsseldorf, die Obdachlosen ein von außen unmoralisches und vermutlich ziemlich illegales, aus Sicht beider beteiligten Parteien aber eigentlich ziemlich gutes Angebot gemacht haben. Würde ich auf der Straße leben, warum auch immer, wäre das eine feine Sache für mich. Man höre sich dazu mal die Wrint-Folge mit und über die Obdachlosigkeit von Rio Burnz an. Jedenfalls kann es nicht sein, dass wir als Gesellschaft uns ein solches Prekariat heranzüchten, weil wir jedes Täubchen online bestellen, was bitte flott, billig und zu genehmen Zeiten direkt in unseren Mund geliefert werden darf. Ich nehme mich da gar nicht aus: gerade gestern Abend habe ich in einem Onlineshop eine halbe Stunde nach irgendetwas sinnvollem gesucht, was ich für ein paar Cent bestellen kann, um die Versandkostenfreiheitsgrenze zu erreichen. Weil ich aus einer Sparfuchsigkeit heraus einfach keine Lust hatte, die völlig angemessenen 4,95 Euro für den Versand zu bezahlen. Dieses Verhalten haben uns die Händler über zwanzig Jahre antrainiert und das kriegen wir so schnell nicht weg. Das macht den Versandunternehmen offensichtlich einen wahnsinnigen Preisdruck und der daraus resultierende Preiskampf wird auf dem Rücken der Lieferleute ausgetragen. Das ist scheiße, da brauchen wir glaube ich nicht groß drüber zu diskutieren.

Wie kommen wir also davon weg? Es ist völlig klar, dass den Leuten mehr Gehalt zufließen muss und die Trickserei mit den (schein-)selbstständigen Subsubsubunternehmern aufhören muss. In dem Kontext hege ich eine gewisse Schadenfreude, wenn ich lese, dass der Arbeitsmarkt leergefegt ist und gerade die besonders ausbeuterisch operierenden Unternehmen ansagen, dass sie keine Leute mehr zu den bisherigen Konditionen finden. Gut so. Das im Kopf gilt erst Recht: Eine klare Verbesserung kann es nur geben, wenn wir alle akzeptieren, dass die Paketzustellung, gerade die an die Wohnungstür, nicht weiter so billig bis kostenlos sein kann. Die Schritte dahin werden gerade eingeleitet, aber ich befürchte, das wird nicht reichen. Möglicherweise muss die Branche zusätzlich besser reguliert werden. Und/oder generell entlastet.

Womit wir zum Elefanten im Raum kommen: Die Wohnungstürlieferung muss teurer werden. Oder die Lieferung zu zentralen Pickup-Points billiger, wobei das ein falsches Signal setzen würde. Und wir brauchen – das wiederhole nicht nur ich seit Jahren – ein Netz von solchen Abholpunkten, die nicht exklusiv an einen Anbieter gebunden sind. Hier Amazon Locker, da DHL-Packstationen oder DHL-Theken, dort ein Hermes-Paketshop, da ein GLS-Paketshop und so weiter. Das ist fast so absurd wie der Umstand, dass bei uns am Tag vier oder fünf Wagen von verschiedenen Lieferdiensten in der Straße ausliefern, manchmal noch mehr. Und in den Locker kann ich fast nie etwas schicken lassen, weil er quasi immer voll ist oder die Fächer schlicht zu klein (eine einzelne Jumbotasse kam kürzlich in einem Paket, in das auch ein Multifunktionsdrucker gepasst hätte, versandkostenfrei und zu einem trotzdem sehr günstigen Preis über eBay). Das ist ein ineffizientes und bescheuertes System.

Was sind also die Gegenvorschläge: Aus meiner Sicht, also einer Konsumenten- und lokalpolitisch-volkswirtschaftlich geprägten Sicht, führt kein Weg daran vorbei, dass die Gemeinden oder Nachbarschaftsvereine eigene Infrastruktur zur Vefügung stellen. Also erst einmal an zentralen Orten Räume schaffen, die als anbieterneutrale Delivery- und Pickup-Punkte dienen. Dort arbeiten Menschen, das muss bezahlt werden. Aber weil man da ein gemeinschaftliches Problem löst (vor allem ein Verkehrsproblem), sehe ich kein Problem, dass diese Kosten von den Menschen getragen werden, denen diese Infrastruktur zur Verfügung steht. Ob über Steuern oder als geringer Mitgliedsbeitrag oder als Einzelnutzungskosten oder eine Kombination daraus muss man dann jeweils ausdiskutieren. Es muss aber eine Schnittstelle geben, die das handhabbar macht. Die also den Eingang einer Lieferung vermerkt und den weiteren Verlauf für die Nutzer_innen transparent macht. Und hier fängt es an, Wertschöpfung zu erzeugen, die über die bloße Vermeidung der letzten Meile hinausgeht. Denkt man etwa an Qool Collect in München sieht man, dass man mit einer solchen Nachbarschaftsinfrastruktur auch gleich noch mehr tun kann. In dem Fall gibt es Anprobekabinen und man kann direkt in der Station seine Pakete wieder auf die Reise schicken. Und es gibt Kühlmöglichkeiten für Frischwaren, weil explizit auch an die lokale Lebensmittellieferung gedacht wurde. Vielleicht kann man auch ein Stadtteilcafé einbeziehen, Kursräume, wer weiß was noch? Der Punkt ist doch, dass man hier einen Ort hat, an dem Menschen zusammenkommen, wenn eine Mehrzahl der Heimlieferungen eben dorthin gehen und nur noch gezielte Lieferungen (gegen Aufpreis) nach Hause kommen, so wie jetzt schon die Expresslieferungen teurer sind. Und Leerstand gibt es genug, seit zahlreiche Läden zu Recht oder zu Unrecht von Onlineshops abgelöst wurden und in den Räumen nur noch Büros hinter den Schaufensterscheiben zu finden sind.

Gerade in urbanen Umgebungen landen viele Pakete ohnehin bei Nachbarn oder in Pick-Up-Stores und die meisten Leute, die tagsüber arbeiten, würden ohnehin lieber dorthin liefern lassen; wenn es denn eine standardisierte Lösung nebenan gäbe. Ich wohne im Speckgürtel und da ist es kein Zufall, dass Amazon dort zuerst diverse Locker aufgestellt hat, bevor sie sich an die urbane Kundschaft wagen. Hier ist neben der Vielnutzung von Distanzhandel vor allem eine geringere Dichte von Stationen nötig: In verdichteten Gegenden müsste man an jeder zweiten Ecke einen Locker aufstellen, um zu verhindern, dass die Locker für die meisten Leute so weit weg sind, dass die Sache sehr unbequem wird. Im Speckgürtel oder ländlichen Gegenden sind die Leute viel eher bereit, wenige zentrale Punkte anzufahren, wenn sie ohnehin an ihren üblichen Mobilitätsrouten platziert sind. Und wenn man sich dann vorstellt, dass nicht nur Locker, sondern auch Packstationen und Äquivalente von DPD, GLS, Hermes, UPS und weiteren Anbietern dazukämen, wird einem schnell klar, dass das keine sinnvolle Lösung für verdichtete Räume sein kann. In Flingern gab es zwei Packstationen, die beide so weit weg waren, dass ich mit dem Fahrrad eine ganze Weile dorthin unterwegs war und das Auto ist offensichtlich auch keine sinnvolle Lösung für alle. So machte das gar keinen Sinn und ich habe die nur benutzt, wenn ich bereits ahnte, dass ich zum Lieferzeitpunkt nicht zu Hause sein würde.

Mit Mehrwerten von solchen zentralen Anlaufstellen meine ich auch, dass die letzte Meile dann hyperlokal organisiert werden kann. Beispiel: Ich bekomme eine Push-Benachrichtigung in meiner Abholstations-App, dass ein Paket angekommen ist. So groß, so schwer, von Anbieter XY. Der Paketdienst ist in dem Moment raus aus der Sache und der Workflow passiert in der App. Ich kann dann sehen, bis wann die Abholstation besetzt ist und kann weitere Optionen nutzen. Also etwa kurzfristig eine Weiterlieferung nach Hause in einem engen Zeitfenster anstoßen, wenn das verfügbar ist. Sprich: Wenn gerade Leute zur Verfügung stehen, die das übernehmen können. Oder ich kann schauen, ob ich für Nachbarn etwas mitnehmen kann. Dazu pflege ich eine Liste von Vollmachen für Leute, deren Pakete ich abholen darf und die meine Pakete abholen dürfen. In dem Fall könnte ich also mein Paket als „kann ein Nachbar mitbringen“ markieren oder selber ansagen, dass ich nachher um sieben Zeit hätte und Pakete für meine Nachbarn mitnehmen kann. Die bekommen das als Benachrichtigung und können annehmen oder ablehnen. Oder Leute können, à la Uber, darauf lauschen, ob es Pakete zu liefern gibt und das gegen Bezahlung organisieren, mit dem Lastenrad rumfahren oder einem Bollerwagen. Vielleicht haben die Stationen auch Schließfächer für Selfservice außerhalb der Öffnungszeiten und man gibt in der App an, dass man sein Paket dort hinterlegt haben möchte.

Da ist einiges möglich, man muss es nur tun und vor allem muss gewährleistet sein, dass man solche Bestellungen in allen Shops aufgeben kann. Die Stationen brauchen also eine Adresse und es muss gewährleistet sein, dass Pakete korrekt zugeordnet werden können. Das alles schreit geradezu danach, dass die digitale Seite solcher Systeme einmal zentral programmiert wird und dann Gemeinden und Nachbarschaftsinitiativen zur Verfügung steht. Zweckmäßigerweise wäre das Freie Software, aber auch kommerzielle Anbieter kämen infrage, die ihre Lösung zentral pflegen und weiterentwickeln und dafür einen angemessenen Preis ansetzen. Ich biete die Konzeption eines solchen Angebots in meiner Web- und App-Konzeptions-Lehrveranstaltung den Studis als mögliches Projekt an, bislang hat niemand angebissen. Wobei mir das auch eine Spur zu groß für diesen Rahmen wäre, das sehe ich eher als Bachelor- oder Masterarbeit. Wer sich angesprochen fühlt: Dringende gesellschaftliche Probleme sind anzugehen, jemand muss damit anfangen.

Nachtrag 01.03.2018: In Hamburg gibt es jetzt in einem Einkaufszentrum einen gemeinsamen Paketshop (vgl. diesen Beitrag bei e-tailment). Der empfängt nicht primär, sondern da geht es vor allem ums Versenden. Und da kommt ein Aspekt ins Spiel, den ich bislang nicht auf dem Schirm hatte: Das Kartellrecht. Konkret ist es da so, dass das getrennte Mitarbeiter machen müssen, die auch nicht frei miteinander reden dürfen und die explizit getrennte Systeme der Anbieter nutzen. Kompliziert, aber nachvollziehbar. Was ich oben beschrieben habe, kollidiert da aus meiner Sicht nicht, aber wenn man auch bequem versenden will, muss man dafür eine Lösung finden. Etwa eine Einigung mit den Anbietern, dass die extern beauftragte Pakete dort ohne die üblichen Haustürabholungsaufschläge abholen. Die Station bewahrt dann nur das bereits online beauftragte und adressierte Paket in meinem Auftrag auf, damit der Paketfahrer das nicht bei mir zuhause, sondern dort abholen kann. Das ist natürlich weniger komfortabel, aber die kartellrechtliche Problematik ist in der Tat vorhanden. Das Thema bleibt spannend, da sollte wirklich mal jemand eine Thesis drüber schreiben.

Lifestream deaktiviert

$
0
0

Ich habe mal meinen Lifestream deaktiviert. Faktisch war dort außer den fünf neuesten Blogeinträgen genau gar nichts mehr drauf. Ich schreibe seit Jahren nichts mehr bei Yelp, der Link zu Google+ zeigt in Kürze ins Leere, mein Twitter-Profil werden ihr auch so finden und Shaarli habe ich auch nicht mehr in Betrieb, weil es seit Jahren ungenutzt ist (lokal betreibe ich das zu Archivzwecken weiter, falls ich da mal reingucken will).

Wer was über mich wissen will, findet mich hier im Blog ab und zu, wobei ich da auch mal demnächst ordentlich durchkämmen und alten Kram ohne Informationswert depublizieren werde. Dann bin ich bei Twitter aktiv, was kurz ist, kommt da rein. Und für Google+ habe ich noch keinen Ersatz gefunden. Da werde ich meine Beiträge sichern und schauen was sich ergibt. Aktuell hoffe ich immer noch, dass es adäquaten Ersatz geben wird für den ganzen Kram, der hier im Blog zu unüberlegt und kurz und für Twitter zu lang wäre. Also fast alles, was ich so publiziere. Wichtig: Es muss Kanäle geben, die nicht alle öffentlich sind und wo ich entscheiden kann, was sich an wen richtet. Aber das meiste muss öffentlich sein.

Wir werden sehen.

Eine interessante eBay-Betrugsmasche und Geldwäschemethode

$
0
0

Ich bin Opfer einer eBay-Betrügerei geworden. Es geht um etwa 110 Euro von meinem Hobbybudget, ist also verschmerzbar. Gestern kam Post von der Staatsanwaltschaft, dass das Verfahren eingestellt wurde. Das Schreiben nennt auch sehr aufschlussreiche Gründe dafür. Ich zitiere einmal großzügig (mit geändertem Namen des vermutlich nicht existierenden Beschuldigten):

Sehr geehrter Herr Meyer,

das Ermittlungsverfahren habe ich gemäß § 170 Abs. 2 der Strafprozessordnung eingestellt.

Die Identität des "Vorname Nachname" ist bislang nicht ermittelt worden. Es ist zu befürchten, dass es sich dabei lediglich um eine fiktive Personalien handelt. Selbst wenn es diese Person tatsächlich geben sollte, wären zur Aufklärung der Tat umfangreiche Ermittlungen im Ausland erforderlich. Inhaber des Kontos, auf das der Kaufpreis überwiesen wurde, ist die Namemitgamingbezug Limited in Hong Kong. Diese Firma handelt mit virtuellen Gütern für (Online-)Computerspiele. Nach Auskunft der Handelsbank können sich Kunden der Namemitgamingbezug auf das Konto der Namemitgamingbezug Geld überweisen lassen. Dieses wird dann, basierend auf dem Verwendungszweck, auf das jeweilige Spielerkonto transferiert. Ein Rechtshilfeersuchen in Hong Kong erscheint wenig erfolgversprechend, da bei Schadenssummen in dieser Größenordnung Rechtshilfeersuchen oft nicht oder nur mit erheblicher Zeitverzögerung bearbeitet werden. Dass die Ermittlungen zur Ergreifung des oder der Täter führen und dass diese(r) in Deutschland für ihr Verhalten strafrechtlich zur Verantwortung gezogen werden können, erscheint unter diesen Umständen sehr unwahrscheinlich. Aus Gründen der Verhältnismäßigkeit wird daher von weiteren Ermittlungen abgesehen.

Etwaige zivilrechtliche Ansprüche werden durch diesen Bescheid nicht berührt.

[…]

OK, well played. Aus meiner Sicht war die Transaktion bis auf den Neuaccount bei eBay unverdächtig. Die Auktion sah ganz normal aus, der Verkäufer hatte parallel noch ein paar andere Sachen eingestellt, alles stimmig. Zudem war der Versandmodus ausschließlich auf Abholung in Bergisch Gladbach festgelegt. Ich war dann der unterlegene Bieter bei 105 Euro, passt alles. Bei dem Preis wäre das ein ziemliches Schnäppchen gewesen. Bald nach Auktionsende bekam ich ein Angebot an unterlegene Bieter, weil der Hauptbieter abgesprungen wäre. Als Entgegenkommen bot mit der Verkäufer auch an, dass er die Ware doch verschicken kann, was ich gerne annahm, denn anderthalb Stunden hin und zurück um die Weihnachtszeit passte mir eher mittelmäßig in den Kram. Ich bat also um Zusendung von Bankdaten, die nicht kamen und auch nicht bei eBay hinterlegt waren. Aha, ein Verpeiler offenbar. Also nochmal nachgefragt und es kam eine Kontoverbindung, die auf den angeblichen Namen des Verkäufers passte. Bei einer deutschen Bank. Ich hatte also keinerlei Anlass zu Misstrauen, genau so laufen eBay-Transaktionen mit Privatleuten oft ab. Danach passierte eine Woche lang nichts, keine Trackingnummer, keine Ware. Also fragte ich nach und wurde gebeten, einen Kontoauszug an eine E-Mail-Adresse bei web.de zu senden. Das hat mich stutzig gemacht, aber das Onlinebanking der Bank bietet eine schöne Exportfunktion für einzelne Buchungen an und ich habe gesehen, dass man im eBay-Nachrichtensystem nicht einfach Dateien anhängen kann. Danach wurde behauptet, die Ware werde am nächsten Werktag verschickt, aber es kam nichts. Das war das letzte, was ich gehört habe, danach kam nichts mehr, auch auf die Disputklärung über das eBay-System nicht.

Der Teil ist langweilig, halten wir einfach fest: Ich habe an ein deutsches Konto Geld überwiesen, das auf einen Namen läuft, der sich mit den Angaben bei eBay deckt, Verwendungszweck war die Nummer der eBay-Transaktion.

Also die Betrugsmasche bei eBay mit Angeboten an unterlege Bieter kennt man ja, da wird dann aber einfach der Verkaufspreis hochgetrieben, was mich in dem Fall nicht gestört hätte. Spannend und für mich neu ist der Part, wie das Geld gewaschen wird, das verdient eine genauere Betrachtung.

Die Deutsche Handelsbank führt also ein deutsches Konto für eine im Nicht-EU-Ausland sitzende Limited und hat scheinbar auch kein Problem damit, dass Einzahlungstransaktionen auf völlig andere Namen reinkommen. Das überrascht mich offen gestanden doch etwas und wenn ich Zeit hätte, würde ich da mal hinterherrecherchieren. Warum ist das möglich? Dass mein Bankprogramm den Banknamen bei IBAN-Überweisungen nicht auflöst, war ungünstig, denn bei einem Privatkonto bei einer "Deutschen Handelsbank" wäre ich stutzig geworden.

Noch spannender ist aber der zweite Teil des Geldwäschesystems: Besagte Limited nimmt über Auslandskonten in verschiedenen Ländern Geld ein (zumindest in Deutschland, der Rest ist Spekulation) und schreibt es Usern eines Handelsplatzes für virtuelle (In-Game-)Güter gut. Ob die Betrüger dort für jede eBay-Transaktionsnummer einen Account mit gleichlautendem Namen anlegen oder ob mein Überweisungsnachweis genutzt wurde, um eine "verlorene" Transaktion zuzuordnen, entzieht sich meiner Kenntnis. Ich gehe aber davon aus, dass das zu unsicher und aufwendig wäre, auf solche Nachweise zu warten und dass das Verlangen nach einem solchen Nachweis nur eine Nebelkerze war. Innerhalb des in Hong Kong ansässigen Marktplatzes kann man das Geld dann schön zirkulieren lassen und ist einigermaßen sicher davor, dass der Anbieter mit irgendwelchen ausländischen Ermittlungsbehörden zusammenarbeitet und da großflächige Geldflussanalysen bereitstellt.

Ich bin einigermaßen beeindruckt von der Idee, diese beiden an sich wenig verdächtigen Systeme in dieser Weise zu kombinieren. Hut ab, für meine insgesamt 112 Euro habe ich einiges geboten bekommen.

Bass erstaunt war ich auch, wie hinderlich das eBay-Disputsystem hier ist. Wenn man keinen Käuferschutz hat (nur mit PayPal), steht einem das System in erster Linie im Weg und ich habe sehr lange recherchieren müssen, bis ich eine Möglichkeit zur Kontaktaufnahme gefunden habe. Das auch nur, weil eBay mit wiederholt Mails geschickt hat mit der Aufforderung, mich bei ihnen zu melden, wobei der Link in der Mail in das Disputsystem führt und die eBay-Kontaktieren-Funktion dort nur zur Verfügung steht, wenn es um eine Transaktion mit Käuferschutz geht. Die Dame am Telefon konnte meinen Ärger darüber nachvollziehen und räumte ein, dass das nicht gut gelöst ist. Dafür war sie kooperativ und schickte mir hilfreiche Informationen zu Betrugsfällen zu und die bei eBay hinterlegte Adresse des Verkäufers. Die es möglicherweise sogar gibt und ich gehe sehr stark davon aus, dass dort ein nichtsahnender Mensch wohnt, der jetzt der Staatsanwaltschaft unangenehme Fragen beantworten musste. Der Name ist jedenfalls googlebar in Bergisch Gladbach.

Nachtrag 07.03.2019 16:45: Ich habe mal bei der Bank nachgefragt, warum die Zahlungen annehmen, deren Empfänger klar vom eigentlichen Firmennamen abweichen. Zudem was sie vorhaben, gegen diese Masche zu unternehmen. Ich bin gespannt.

Zudem habe ich bei der Limited nachgefragt. Dort war man sehr nett und hat mir gerne Auskunft gegeben. Jemand hat da einen Account unter meinem Namen und irgendeiner Fake-E-Mail-Adresse angelegt, etwas gekauft und Vorkasse als Zahlungsmethode gewählt. Die Bestellnummer, die dann zur Zuordnung verwendet wird, sieht aus wie eine eBay-Transaktionsnummer und da habe ich wegen der Unübersichtlichkeit von eBay nicht gut aufgepasst, denn die weicht ab. Und auch geil ist, dass die in ihrem System bei den Zahlungen nicht sehen, wer im Empfängerfeld steht. Sie bekommen also gar nicht mit, dass da nicht ihr Name drin steht. Dass der Verkäufer die Versandkosten willkürlich um einen kleinen Betrag angehoben hatte, sorgt übrigens dafür, dass ich den korrekten und erstaunlich krummen Bestellbetrag überwiesen habe.

Unser Betrüger ist übrigens Fußballfreund, denn beide Fakenamen, die bislang aufgetaucht sind, führen zu deutschen Amateurfußballern aus NRW. Ich bleibe am Ball, das ist spannend.


Kein Zugriff auf NAS/Samba/Synology von Domänenrechnern aus? Gastkonto deaktivieren!

$
0
0

Ich bin nach all den Jahren Verweigerungshaltung und BYOD neuerdings doch von einer neuen Problemklasse gepeinigt, die ich bislang immer vermeiden konnte: Mein neuer Dienstrechner ist Mitglied in einer Domäne und traditionell ist das Quell steten Ärgers und die perfekte Selbstwirkungserfahrungsverhinderungsmaschine. So auch jetzt wieder. Das meiste ließ sich mehr oder weniger einfach lösen, andere Sachen sind nunmal Richtlinie, wie dass ich gezwungen bin erst Strg+Alt+Entf zur Anmeldung zu drücken, statt direkt meinen Finger auf den Fingerabdrucksensor zu legen. Viel unerfreulicher war aber der Umstand, dass ich unser lokales Arbeitsgruppen-NAS, das nicht in der Domäne ist, nicht erreichen konnte. Das Webinterface schon, aber wenn ich im Explorer verbinden wollte, hagelte es "Unbekannter Fehler 0x80004005".

Viele Stunden Recherche und (ergebnisloses) Nachfragen beim Support später habe ich die Ursache gefunden (SMB1 war natürlich längst deaktiviert, das war mein erster Verdacht): Der Samba-Server im NAS (ein Synology) bietet bei aktiviertem Gastkonto eben diesen Gastzugang über SMB an; eine Richtlinie, die es in Windows 10 seit Version 1709 gibt, verhindert aber eben diesen Gastzugang auf nicht vertrauenswürdige Geräte, siehe etwa hier. Warum der Windows-Explorer den ohnehin verbotenen Gastzugang nicht einfach ignoriert und ganz normal eine Benutzeranmeldung an der Freigabe einfordert, ist mir schleierhaft, aber hey, ein unbekannter Fehler ist doch auch was Feines! Ebenfalls unbekannt ist, ob das bei allen frischen Installationen von Windows 10 ab Version 1709 so ist oder nur bei Domänenrechnern. Mein privates Gerät hat Windows 10 schon länger drauf und brauchte keine Hilfe.

Wenn man mit net use t: \\IP_DES_NAS\FREIGABENAME eine Verbindung auf der Kommandozeile initiiert, bekommt man übrigens sehr wohl eine hilfreiche Fehlermeldung:

Sie können nicht auf diesen freigegebenen Ordner zugreifen, weil der Zugriff nicht authentifizierter Gäste durch die Sicherheitsrichtlinien Ihrer Organisation blockiert werden. Diese Richtlinien helfen, Ihren PC vor unsicheren oder bösartigen Geräten im Netzwerk zu schützen

So viel zum Thema "Unbekannter Fehler".

Mit net use t: \\IP_DES_NAS\FREIGABENAME /user:USERNAME_AM_NAS klappt die Verbindung dann übrigens ganz wunderbar. Das gesamte Problem entsteht also nur, weil Microsoft entschieden hat, seine User trotzig mit unklaren Fehlermeldungen zu beglücken, statt den Gastzugang einfach zu ignorieren und direkt den Dialog zur Eingabe von Benutzerdaten einzublenden. Unter anderem hier steht, wie man mit einem Registryeingriff den unsicheren Gastzugang wieder erlauben kann. Ob ich das in meiner Domäne darf, habe ich nicht ausprobiert.

Brauche ich aber auch nicht, weil die Deaktivierung des Gastkontos auf dem NAS das Problem ebenfalls beseitigt hat: Jetzt fragt der Explorer brav nach passenden Zugangsdaten, wenn man sich mit dem NAS verbinden will.

Bleiben Sie dran für vermutete weitere spaßige Unannehmlichkeiten aus der Serie "Wenn man nicht mehr Herr über seine Geräte ist". Ach ja, Windows Spotlight gibt es in Windows 10 Education nicht mehr, warum auch immer. Wer hübsche Bildchen sehen will, kann aber die App Dynamic Theme aus dem Store installieren, die rüstet das wieder nach.

Die Lunch Box Mini macht – trotz allem – irre viel Spaß

$
0
0

Mein erstes ferngesteuertes Auto im Erwachsenenalter war ein schlimmes Geldgrab, Ergebnis einer völligen Fehlberatung und meiner Naivität. Sicher habe ich das nicht nur ein mal erwähnt, zuletzt jedenfalls in meiner erklärlichen Herablassung gegenüber Bürstenmotoren. Was mich damals vor allem frustriert hat, war das Ergebnis gemessen am bezahlten Geld: Baukasten, Lack, Kugellager (Überraschung!), einzeln gekaufte RC-Komponenten (machanischer Fahrtregler, WTF!?), all das zusammen summierte sich auf einen Preis, für den ich auch ein in allen Belangen überlegenes RTR-Modell hätte kaufen können. Das hat mich besonders getroffen, weil Geld damals eine wirklich knappe Ressource bei mir war.

Was ich damals nicht begriffen habe, ist die Ausrichtung von Tamiya, die nicht das war, was ich gesucht hatte, aber eben seine Daseinsberechtigung hat. Letztlich muss man einfach Spaß am Aufbau des Modells haben, eigentlich wie ein Lego-Technic-Kasten. Ich hingegen wollte ein Auto, das sinnvoll konstruiert, den Kosten angemessen ausgestattet ist und sich entsprechend fährt.

So wie der Arrma Fazon Voltage, den ich letztes Jahr für einen Schnäppchenpreis von 90 Euro abgestaubt habe und der bis auf die zu schwach ausgelegten Differenzialabtriebe bzw. den fehlenden Slipper eine fantastische Konstruktion ist. Beides zusammen ist eine sehr unglückliche Kombination: Auf griffigem Untergrund wie Rasen und bei vielen Landungen mit Vollgas gibt es ohne Slipper (Rutschkupplung) ständig heftige Lastspitzen im Antriebsstrang, die irgendwo abgebaut werden müssen. Drehen die Räder nicht durch und gibt der Motor gerade Vollgas, gibt früher oder später irgendwas nach und das sind in dem Fall die Differenzialabtriebe aus vergleichsweise weichem Kunststoff. Würde man die härter machen, würde das nächstschwächere Glied in der Kette schlapp machen, das sind dann entweder die Antriebswellen oder die Zahnräder im Getriebe. Deswegen brauchen solche Fahrzeuge einen Slipper, der die Lastspitzen aufnehmen kann. Platz wäre da gewesen, was die Sache besonders schade macht. Ich habe jetzt einfach ein paar Tütchen Ersatzteile beschafft und achte penibel darauf, bei Landungen kein Gas zu geben.

Die Lunch Box Mini ist ein teurer Spaß

Zurück zu Tamiya. Ich hatte mich spontan in die Lunch Box Mini verliebt (siehe etwa das Herstellervideo bei YouTube) und auch die Kinder waren sofort verliebt und haben mich belagert, dass ich dieses süße gelbe Autochen kaufen soll. Wer kann da schon widerstehen, trotz Tamiya. Denn auch auch das Ding kommt als Baukasten, zieht diverse zusätzliche Investitionen nach sich und ist verglichen mit anderen Fahrzeugen der sich letztlich ergebenden Preisklasse sein Geld nicht wert, jedenfalls aus technischer Sicht. Aber sie ist so süß und lustig und Kindheitserinnerungen und leuchtende Kinderaugen und ich konnte einfach nicht anders. Also mal schnell zusammenrechnen: 85 Euro für das Modell, fast 30 Euro für den Kugellagersatz (günstig gekauft, eigentlich viel teurer), 11 Euro für die beiden kurzen Plastikstäbchen für die Vierradlenkung (Schnappatmung), 8 Euro für ein günstiges Standardservo, einen Regler hatte ich noch (sonst weitere mindestens 15 Euro), eine Funke (ab 30 Euro) und ein Akku, weil keiner meiner Standardakkus passt. Für den Akku will Tamiya irgendwas um die 60 Euro haben. Für zwei zusammengelötete 18650er-Zellen. WTF!? Ich habe zwar genug davon rumliegen, aber die zu löten macht echt keinen Spaß, also nochmal 15 Euro für ein günstiges Akkupack. Da sind wir bei irgendwas um die 180 bis 200 Euro Endpreis und ich zähle lieber nicht auf, was man für das Geld bei anderen Herstellern bekommt. Nur so viel: Fahrzeuge jenseits der 100 Euro-Marke ohne Kugellager (stattdessen mit Kunststofflagern!) habe ich seit zehn Jahren nicht mehr bewusst wahrgenommen, selbst bei viel billigeren ist das eine Selbstverständlichkeit und wer mal ein TT-01-Chassis mit den beiliegenden "Gleit"-Lagern aus Messing gefahren ist, weiß warum: Die Reibung im Antriebsstrang ist groß, was Leistung frisst, vor allem aber schlagen die sehr schnell aus und dann rappelt und vibriert alles. Naja, so ist Tamiya eben, muss man halt wissen, ob man das will.

Der Zusammenbau

Der Zusammenbau stellt einen nicht vor echte Rätsel: Man schneidet Teile aus recht erstaunlich weichem Kunststoff von Spritzgussästen ab, schraubt sie mit Schräubchen aus kleinen Tütchen zusammen, sortiert nach Bauabschnitten. Wer Lego bauen kann, bekommt das hin. Schlüsselskill: Nichts von den Kleinteilen verschlampen. Anders als bei Lego muss man wahnsinnig aufpassen, weil bei dem weichen Kunststoff oft nicht nach fest ab kommt, sondern schon davor. Das ergibt, gerade bei den Radaufhängungen und der merkwürdigen mehrmals umgelenkten Lenkungsmechanik ein insgesamt derart wackeliges Modell, dass man sich fragt, ob das überhaupt geradeaus fährt. Spoiler: Tut es nicht, aber dazu später. Das eigentliche Gebastel geht flott von der Hand und macht tatsächlich großen Spaß, die Vorfreude steigt, ich fühle mich ständig belohnt. Dann kommt die Karosserie dran, die freundlicherweise und abweichend zum Tamiya-Standard bereits professionell gelb lackiert mit einer weißen Schutzlackschicht innen ist. Die relevanten Rundungen sind auch bereits ausgestanzt, sodass man hier keine hässlichen Radhäuser zurechtschnibbelt. Ich erwähne das, weil mein Enzo Ferrari von damals ausgesprochen unsauber ausgeschnittene Radhäuser hat, weil ich nicht gut darin bin, so sperriges Material sauber rund auszuschneiden. Probiert mal mit einer etwas dickeren PET-Flasche aus, wie viel Spaß damit präzise Rundschnitte machen. Ansonsten wird man beim Einbau der Elektronik vermutlich löten müssen, am Motor sind diese gruseligen Blechstecker dran, das muss ausgetauscht werden, wenn man nicht zufällig einen Regler mit passenden Gegenstücken hat.

Aufkleberwahnsinn

Dann kommen die Aufkleber. Man könnte jetzt annehmen, dass der Aufkleberbogen vorgestanzt ist, wie man das so kennt. Aber weit gefehlt: Man darf mit einer Nagelschere feinziselierte Aufkleberchen ausschneiden und um die Rundungen herumkleben. Das alleine dauert so lange wie der restliche Aufbau des Modells, zumindest bei mir. Aber irgendwann hat man es geschafft und ist ganz stolz und nassgeschwitzt und es sieht echt cool aus. Naja, andere Leute häkeln abends. Dennoch: Bitte die Aufkleberbögen ausstanzen, Tamiya!

Die Akkufrage

Zuletzt baut man die Elektronik ein. Das Servo ist schon beim Bau verbaut worden, ebenso der mitgelieferte Motor, aber Regler, Empfänger und Akku müssen noch platziert werden. Dafür gibt es geeignete Positionen, was wunderbar ist, weil man nicht viel entscheiden muss. Auf der Packung steht etwas von Batteriebox für 4 AA-Zellen alternativ zu oben genanntem Tamiya-Akku. Es stellt sich allerdings heraus, dass diese Batteriebox nur in einigen Ländern dabei ist. Darüber könnte ich verstimmt sein, bin ich aber nicht, weil ich keinen Regler kenne, der mit den 4,8V aus 4 AA-Zellen etwas sinnvolles anzufangen weiß, sofern er überhaupt etwas tut. Zudem ist die Karre schon bei 7,2V recht langsam unterwegs, dass ich mich frage, wie dieser Motor bei 4,8V irgendwie vorankommen will. Meine Akkus für kleine Modelle, die ich in drei verschiedenen Bauformen noch so rumliegen hatte, passen alle nicht in die vorgesehene Akkuhalterung, also musste ich noch ein Akkupack für 15 Euro bei fragwürdigen Händlern im Amazon-Marketplace bestellen. Vorteil: Da ist dann direkt ein USB-Ladegerät für den Balanceranschluss dabei und er hat schon einen T-Stecker dran, einmal Löten weniger.

Über Akkus, Balanceranschlüsse und den Steckerdiversityhorror muss ich bei Gelegenheit mal eine eigenen Beitrag schreiben. Nur so viel: Ich verstehe gar nicht, wieso sich die Bauform mit zwei 18650er-LiIon-Zellen nebeneinander nicht mehr durchsetzt, der T-Stecker hat immerhin zur Zeit ziemlich Oberwasser bei allen kleineren Maßstäben und löst auch dort endlich die gruseligen dünnen Ministeckerchen ab, deren Kontakte dünn wie Klingeldraht sind und die ganz unerfreulich heiß werden, vom Leistungsverlust durch den hohen Übergangswiderstand mal abgesehen. Diese moderne und kompakte Bauform bekommt man relativ günstig, weil 18650er-Zellen allgegenwärtig sind und in absurden Stückzahlen produziert werden. Von der E-Zigarette über Akkuwerkzeuge und E-Bikes bis hin zu ausgewachsenen Elektroautos trifft man diese Rundzellen überall an und für ihre Baugröße sind sie erstaunlich leistungsfähig, leider nur entweder in Sachen Kapazität oder Strombelastbarkeit. Da muss man wählen, anders als bei LiPo-Akkupacks, die bei steigender Kapazität in der Regel auch mehr Strom abgeben. Bei den 18650er-Zellen ist der Bauraum aber klar definiert und so gibt es grob zwei Möglichkeiten zur Optimierung: Alles dichter wickeln für mehr Kapazität, aber dann wird das empfindlicher, oder eben die Schichten dicker machen, dann wird es robuster. Jedenfalls kann man wahnsinniges Geld für Modellbauakkus mit diesen Zellen ausgeben, etwa die 60 Euro bei Tamiya, oder man bestellt bei fragwürdigen Asiahändlern, Versand durch Amazon, hoffentlich ordentlich verzollt und versteuert. Oder man wartet, dass die Packs von Markenherstellern lieferbar sind. Die Bauform gilt jedenfalls noch immer als Sonderbauform und ist entsprechend schlecht verfügbar, zumindest zur Zeit.

Fahren

Der Akku ist jetzt da und es darf gefahren werden. Was soll ich sagen? Ich lache und jauchze wie ein Kind. Die Labberigkeit ist absurd, ständig muss man die Richtung nachkorrigieren, weil die Räder schon ohne große Krafteinwirkung locker 20° Spiel zueinander haben. Immerhin sind auch die Vorderräder angetrieben und eiern nicht nur rum, was das Fahrzeug irre wendig macht. Aber das ist alles egal, weil sich dieses absurde Fahrzeug unfassbar lustig fährt. Es macht Wheelies ohne Ende, kippt ohnehin ständig um und wenn man bremst, macht es einen Purzelbaum. Das beste ist aber, dass man wegen der rudimentären Vierradlenkung die Richtung etwas nachkorrigieren kann, während man größere Strecken auf den Hinterrädern fährt. Ich hatte lange nicht so viel Spaß mit einem ferngesteuerten Auto, gerade weil es so absurd doof ist.

Ein Fazit

Gut: Der Aufbau macht Spaß, die Vorfreude wächst stetig dabei, das Fahren ist super lustig, sie sieht super süß aus. Ein Auto zum Verlieben, wie ein Pandababy!

Schlecht: Die Chassiskonstruktion ist unnötig wabbelig, man kann nicht vernünftig fahren, baut sich einen Wolf und zahlt einen Endpreis, für den man Fahrzeuge einer ganz anderen Liga bekommt. Das muss man wollen.

Für wen: Vorsichtige Kinder werden daran viel Spaß haben, Radaukinder werden die filigrane Konstruktion in Rekordzeit vernichten. Ansonsten alle, die das Kind in sich strahlen lassen möchten!

Für wen noch: In der Vitrine macht sich die Karre auch ausgesprochen gut, klassische Tamiya-Stärke. Für den Zweck kann man sich die Kugellager und die Allradlenkung sparen (immerhin 40 Euro). Eine alte Funke und irgendein Regler aus der Kramkiste tun es hierfür auch allemal, nur die neue Akkubauform muss man irgendwie anschaffen, da wird man eher nichts rumliegen haben. Man kommt für 100 Euro also durchaus weg, wenn man sich vor allem am Anblick erfreuen will.

Das Chassis: Das Chassis ist ein SW-01, ganz neue Konstruktion. Ich frage mich, wer sich so etwas schwabbeliges ausdenkt und dann auch noch so weiche Materialien einsetzt. Allein die Antriebswellen gruseln mich schon, da gehört auf keinen Fall ein stärkerer Motor rein! Die Lenkungskonstruktion ist völlig gaga und trägt einen guten Teil zum miesen Fahrverhalten bei. Wenn das der recht feste Kunststoff wäre, den Tamiya im TT-01 einsetzt, wäre das alles viel weniger weich. Auch vom Fahrverhalten her braucht man keinen stärkeren Motor, schneller als dieser Kriechgang wäre zu schnell, weil das Fahrzeug so schon ständig in alle Richtungen umkippt. Das ist lustig wie es ist, belassen wir es dabei.

Randbemerkung: Anfänger_innen denken oft, sie bräuchten einen stärkeren Motor, auch weil Tamiya immer als Tuningmaßnahme den Sportmotor empfiehlt. Ich würde allerdings raten, erstmal zu schauen, ob nicht eigentlich der Regler einfach nicht genug Punch hat oder der Akku einfach schwach ist. Beides habe ich schon als Flaschenhals erlebt, erstaunlicherweise bereits bei so Büchsenmotoren wie den Baukastendingern von Tamiya. Ein schnellerer Motor liefert dann durchaus mehr Endgeschwindigkeit oder Drehmoment, aber so richtig viel Punch kommt dann trotzdem nicht raus, wenn man kräftig am Gashebel zieht. Gerade bei Billigmodellen hapert es hier gewaltig, zudem regeln schlechte Regler auch oft sehr schlecht (vor allem ungenau oder stark verzögert), da wird man mit einem besseren Modell mehr erreichen als mit einem leicht schnelleren Motor. Und noch ein Tipp: Wenn einem ein Modell nicht schnell genug ist, wie es kommt, sollte man nur in Maßen leistungssteigernde Maßnehmen vornehmen; weil echte Steigerungen mit einer massiv höheren Belastung aller Teile einhergeht, was ein Fahrzeug allzu schnell zu einem echten Geldgrab werden lässt. Also lieber etwas sparen und auf ein schnelleres Modell wechseln und das alte so lassen, wie es ist. Meistens ist es gut so und wird nicht mehr besser.

P.S. Noch ein paar Worte zu Kugellagern: Das ist eine echt fiese Falle und Tamiya täte gut daran, seine Baukästen von Anfang an mit ordentlichen Lagern auszustatten. Wie alle anderen auch. Ich kann Tamiya-Modelle aus Fahrersicht einfach nicht ernst nehmen, solange der Antriebsstrang in Messing- oder wie hier sogar in weichen Kunststoffbuchsen gelagert ist, Weltmeistertitel mit dem einen teuren TRF-Tourenwagen hin oder her. Ich fühle mich zudem einfach nur abgezockt, wenn ich nichtsahnend einen Baukasten öffne und dann feststelle, dass da als Lager nur so Notlösungen mitgeliefert werden und ich nochmal rund ein Drittel des ganzen Baukastenpreises nur für Lager ausgeben muss, die eigentlich eine Selbstverständlichkeit sind. Bessere Händler bieten konsequenterweise grundsätzlich beides zusammen als Bundle an.

P.P.S. Mechanische Fahrtregler, WTF!? Ich habe mich ja im verlinkten Beitrag bereits aufgeregt, aber ich tue es hier gerne nochmal. Das war 2003 und meinem TT-01 lag allen Ernstes ein mechanischer Fahrtregler bei. Wobei das eher ein Fahrstufenschalter war, wie bei den ersten Straßenbahnen vor über hundert Jahren. Und der größte Witz daran: Das Ding erforderte zur Strafe noch weitere Investitionen, weil man ein zusätzliches Servo dafür brauchte. Ich bin noch immer sprachlos darüber und ein guter Teil meiner Ablehnung den Modellen von Tamiya gegenüber geht auf das Konto dieses Arschtritts. Ja, billige Regler haben damals auch keinen Spaß gemacht, aber dann legt man halt keinen Regler bei.

Warum billige ferngesteuerte Autos fast immer eine frustrierende Erfahrung sind

$
0
0

Neulich hatten wir Gäste und der große Sohn hatte derart viel Spaß daran, im Garten mit unserem (heruntergeregelten) Arrma Fazon Voltage herumzuheizen, dass dort zum Geburtstag ein ferngesteuertes Auto angestrebt wurde. Nun ist es immer etwas problematisch, Kindergartenkindern ordentliche Modelle an die Hand zu geben, weil es dort ein hohes aktives und passives Schadenspotenzial gibt. Nicht ohne Grund steht überall, dass solche Modelle ab 14 Jahren geeignet sind. Dazu später mehr.

Unter anderem aus diesem Grund wurde also bei Amazon der "Bestseller Nr. 1 in App- und ferngesteuerte Lastwagen" gekauft, der gerade "SGILE RC Auto 1: 16, mit 2 Akkus, 2.4 GHz Offroad, KM/H, RC-Auto, Rot" heißt und 32,99 Euro kostet inkl. "GRATIS Premiumversand Langstrecke für Prime-Mitglieder". Das Teil hat aktuell 93 Sternebewertungen bei einer Durchschnittsbewertung von 4,5 von 5 Sternen. Verlinken werde ich das Modell nicht, weil die Erfahrung zeigt, dass solche Angebote ausgesprochen kurzlebig sind. Man ist also durchweg sehr zufrieden, das lässt hoffen. Ich erfuhr allerdings erst davon, als das Teil bereits wieder auf dem Heimweg war. Nun will ich mal allgemein zusammenfassen, warum solche billigen ferngesteuerten Autos fast immer eine frustrierende Erfahrung sind.

In echt habe ich dieses konkrete Fahrzeug gar nicht gesehen, aber man kann bereits aus der Produktbeschreibung und vor allem den Bildern einige erhellende Punkte entnehmen, mit denen sich solche Fahrzeuge bei etwas Erfahrung sofort einordnen lassen. Und da ich immer mal wieder von Eltern danach gefragt werde, schreibe ich das mal nieder.

  1. Ich habe bislang kein ferngesteuertes Auto unter etwa 50 Euro Neupreis gesehen, dessen Lenkung mit einem Servo ausgestattet war. Stattdessen wird eine zum Scheitern verurteilte Konstruktion verwendet, die jeder Ingenieurin und jedem Ingenieur die Schamesröte ins Gesicht treiben würde: Eine Feder hält die Anlenkung in der Mitte und ein kleiner Elektromotor bekommt Spannung in die eine oder die andere Richtung, dreht ein Stück gegen die Feder an und läuft dann in eine Blockade. Randbemerkung: Der Blockadestrom bei Elektromotoren ist sehr hoch. Das ist aber vor allem unpräzise und läuft darauf hinaus, dass im besten Fall die Lenkung einigermaßen kräftig zwischen drei Zuständen wechseln kann. Wer mal ein Auto gefahren hat, kann sich sicher vorstellen wie gut es funktioniert, wenn man immer nur eine hoffentlich einigermaßen präzise Mitte oder volle Auslenkungen haben kann. Im Detail unterscheiden sich die Systeme vor allem in ihrer Lenkkraft, der Rückstellkraft der Feder und ob durch Ansteuerung des Motors mehr oder weniger weit gegen die Feder angearbeitet werden kann oder eben nur der Vollausschlag möglich ist. In der Praxis zeichnen sich solche Fahrzeuge dadurch aus, dass sie zu zackig lenken und das fast immer nur sehr schwach tun. Im Ergebnis ist bereits Geradeausfahren nur zufällig möglich und der Kurvenradius hängt primär von der gefahrenen Geschwindigkeit und dem Grip des Untergrundes ab, statt vom Ausschlag der Lenkung an der Fernsteuerung. Je schneller das Fahrzeug werden kann, umso ätzender wird das und umso unkontrollierbarer wird die Fahrt. Hinzu kommt eine oft wackelige Lenk-Ansteuerung und Aufhängung der Räder, was selbst bei einem Servo für ein schwammiges Fahrverhalten sorgt. Tut Euch und Euren Kindern einen Gefallen und kauft irgendwas mit einem Servo in der Lenkung.

  2. Das ist allerdings selten ein echtes Problem, weil billige Fahrzeuge ohnehin oft recht erstaunlich langsam unterwegs sind. Das konkrete Modell verspricht 15 km/h, was angesichts der schwachen Akkupacks mit jämmerlichen 4,8V eher auf 10 km/h hinausläuft. Da kann man noch bequem nebenher laufen und das ist schon nach wenigen Minuten frustrierend langsam. Oft kommen solche schwachen Fahrzeuge schon unsere eigentlich recht flache Auffahrt ohne Schwung nicht hinauf, wobei das Modell hier die Überwindung von 45° steilen Neigungen verspricht. Es kann sein, dass es deswegen so langsam ist, weil es sehr kurz übersetzt ist, das wäre besser als einfach ein zu schwacher Motor, der auch noch mit zu wenig Spannung betrieben wird. So oder so, mir wurde berichtet, dass das Fahrzeug wirklich sehr ernüchternde Fahrleistungen hatte, was selbst für Kindergartenkinder sehr schnell zu langsam ist.

  3. Solche Modelle sind einigermaßen robust, was in Kinderhänden gut ist. Zudem sind sie meistens sehr klein und leicht, was ihr Schadenspotenzial klein hält, gerade in Verbindung mit der geringen Geschwindigkeit. Auch das ist hier von Vorteil. Aber es wird auch zum eklatanten Nachteil, weil man so eben nicht überall drüber kommt, sondern bereits auf einem Rasen, der nicht super kurz geschoren ist, kaum vorwärts kommt und alle paar Meter festhängen wird. Je nach verfügbarem Einsatzgelände kann das ein echter Showstopper sein. Unproblematisch ist es immer, auf dem Gehweg vor der Tür herumzufahren oder auf einem ebenen Bolzplatz. Der eigene Garten hingegen fällt dann schnell flach, weil es einfach keinen Spaß macht.

  4. Man kann nicht springen oder ähnliche Action veranstalten. Dazu fehlt es den Fahrzeugen einerseits schlicht an Geschwindigkeit, andererseits purzeln sie ungelenk über die Rampe, weil sie sich nicht genau genug regeln lassen, um eine vorhersehbare Flugkurve zu erreichen. Wenn man die Rampe überhaupt mit angemessener Geschwindigkeit trifft mit der üblen Lenkung. Tatsächlich ist dieser Punkt einer der handfestesten Unterscheidungsmerkmale zwischen billigem Spielzeug und RC-Cars, die auch Erwachsenen Spaß machen. Wenn man sich fragt, wie die Leute in den Videos bei YouTube so tolle präzise Sprünge hinbekommen, wo sogar in der Luft nachkorrigiert wird: Das geht nur, wenn sich Lenkung und Motor präzise regeln lassen und das wiederum gibt es schon ohne hoffentlich gut austariertes Fahrzeug drumherum nicht für 50 Euro. Nun könnte man argumentieren, dass Kindergartenkinder, zumal als Einstieg, gar nicht springen müssen. Klar, das stimmt völlig. Ich stelle aber eine Gegenfrage: Wie lange wird es dauern, bis ein Kindergartenkind das so weit drauf hat, dass es mehr will, als auf flachem Untergrund herumzuhoppeln? Und wenn es so weit ist, was dann? Geburtstag ist nur einmal im Jahr und es wäre doch sicher wünschenswert, wenn das Geschenk zumindest das Potenzial hätte, mehr als ein, zwei Wochen Spaß zu bereiten.

  5. OK, dann Autos zwischen ca. 50 und ca. 100 Euro? Jein. Man findet dort zwar einigermaßen brauchbare Fahrwerke, hinreichend Leistung und eine präzise Lenkung vor, wenn man es bei einem Maßstab im Bereich 1/16 und 1/18 belässt. Aber leider wächst mit der Leistung auch die Anfälligkeit für showstoppende Kleinigkeiten, die bei langsameren Autos noch egal waren. Ich besitze mehrere solcher Fahrzeuge und irgendwas ist immer, weswegen sie letztlich nach ein paar Fahrten keinen Spaß mehr machen. Ich habe einen kleinen Allradbuggy von Jamara, der gemessen an seinem Preis fast alles richtig macht und sich toll fährt und sogar gut dabei aussieht. Juhu! Leider hat er zwei Probleme, die weitere Einsätze eher unwahrscheinlich machen: Einerseits kann man zwar die maximale Geschwindigkeit an der Fernbedienung stark reduzieren, was den Einstieg immens vereinfachen würde. Doch leider kann die Empfänger-Regler-Kombielektronik nicht langsam fahren. Man kann so zwar dafür sorgen, dass es nicht super schnell wird, aber die Mindestgeschwindigkeit ist bereits so hoch, dass kleine Kinder völlig überfordert werden. Die werden so keinen Einstieg finden. Andererseits fahre auch ich nicht mehr damit, weil irgendwo im Antrieb offene Stellen sind durch die ständig kleine Steinchen in den Antrieb gelangen und ganz grässliche Geräusche machen. So kann man nicht weiterfahren, ohne den Verlust ganzer Zahnräder zu riskieren und em Ende konnte ich keinen Akku leerfahren, ohne dass das passierte und ich alles (zuhause!) aufschrauben musste. Dabei stellt man schnell fest, dass man das so oft nicht tun sollte, weil die gesamte Konstruktion sehr filigran ist und der Kunststoff weich. Wirklich schade, aber konstruktive Veränderungen lohnen an so einem Modell schlicht nicht. Und für den Einsatz auf Rasen ist er zu klein mit seinen etwa 3cm Bodenfreiheit und auf der Straße rumfahren ist nur ein paar Minuten lustig. Sein Terrain ist Schotter und da hat man den ständigen Ärger mit den Steinchen. Bei Fahrzeugen unter 100 Euro kommt noch die Ersatzteilfrage hinzu: Bekommt man überhaupt Ersatzteile? Und wenn ja, wie, wo und zu welchem Preis? Bei Billigautos sind gebrochene Querlenker oft Totalschäden, und das passiert je nach Geschwindigkeit schon beim ersten unglücklichen Einschlag am Bordstein. Bei den besseren Konstruktionen gibt es Ersatzteile, aber da muss man gerade bei Schnäppchen aus China oft nervig hinterherlaufen oder gar (wieder) in China bestellen. Das ist der Grund, wieso die Fahrzeuge in dieser Klasse eher noch unschöner als die Billigautos sind: Sie sind schneller, es geht mehr kaputt und man muss Ersatzteile beschaffen, was mitunter schwierig wird.

  6. Eine Klasse weiter oben wird es schon wieder langsam lustig. Der oben erwähnte Arrma Fazon Voltage war mit seinen 90 Euro ein Megaschnäppchen, wo fast alles stimmt und solche Ärgerlichkeiten kaum auftreten und man eine ordentliche Ersatzteilversorgung hat. Aktuell bekommt man ihn um die 150 Euro, wobei auch das ein völlig angemessener Preis ist. Hier haben sich Leute echte Gedanken gemacht, wie ein robustes Einsteigerauto zu bauen ist. Und es kann richtig schleichen und vergleichsweise präzise lenken, was in meinen Augen die Topkriterien für ein Einstiegsfahrzeug sind, weil das einfach stimmen muss. Dann macht es auch Spaß, über Rampen zu springen, Rutschen hochzufahren, zu driften. Eben alles, was man bei steigenden Fähigkeiten so machen will. Und er ist ausgesprochen robust konstruiert. Bis auf… ja, ich hatte es bereits erwähnt: Es gibt keinen Slipper (Rutschkuppling), der Lastspitzen im Antriebsstrang auffangen würde und dadurch ist bereits mit der Standardmotorisierung die Belastung auf dem Antriebsstrang bei viel Grip und vielen Lastwechseln (vor allem bei Landungen) zu hoch. Hier sterben die Abtriebe des Differenzials in Rekordzeit, wenn man häufiger mit Vollgas landet. Wenn man vorsichtig fährt (viel Spaß beim Erklären), hält es einigermaßen, aber an Tuning ist hier nicht zu denken. Das ist super schade, weil das Fahrwerk spielend auch viel flotter unterwegs sein könnte. Das ist leider ein generelles Problem beim Tuning von Einsteigerfahrzeugen, also dass der Antriebsstrang das nicht lange mitmacht. Also wer vor hat, echt flott unterwegs zu sein, muss eine Klasse weiter oben einsteigen. Oder damit leben, dass dann ein Fahrzeugwechsel ansteht.

  7. Der nächste Schritt ist nämlich ein bürstenloser Motor und LiPo-Akkus, die wirklich sehr viel mehr Leistung aufbringen. Ab da würde ich Kindergartenkinder allerdings ganz klar raushalten, bis sie wirklich aus den kleineren Klassen rausgewachsen sind. So verlockend das sein mag, aber 1,5kg aufwärts mit 50 km/h aufwärts macht viel Schaden und steckt auch viel Schaden ein. Für Erwachsene wird es hier erst lustig, aber Kinder müssen schon sehr erfahren sein, um da niemanden zu verletzen, keine hohen Sachschäden zu verursachen und auch das Auto immerhin eine Akkuladung überleben zu lassen. Und dafür müssen sie viel gefahren sein, um so weit zu kommen und um diese Verantwortung stemmen zu können. Wenn man so weit kommt, ist ein Verein und der Einstieg in den organisierten Rennsport vielleicht eine gute Idee. Da können bereits Grundschulkinder richtige Erfolgserlebnisse haben.

Was also tun, wenn der Wunsch und die Faszination da ist (übrigens in dem Alter bei Mädchen noch fast so häufig wie bei Jungs, der soziale Gruppendruck kommt erst später, sodass nur hartgesottene Teenie-Mädchen noch Spaß an sowas haben)? Ich empfehle zum ernsthaften Einstieg, so dass man auch selbst als Eltern zusammen Spaß haben haben kann, ein gut konstruiertes Fahrzeug im Bereich um 150 Euro. Hier gibt es manchmal echte Schnäppchen. Oder man kauft etwas gebraucht, allerdings sollte man da unbedingt eine Person beraten lassen, die sich etwas auskennt, weil da wahnsinnig viel Schrott und noch wahnsinniger wenige Perlen unterwegs sind. Ich habe gerade so ein Schnäppchen bei eBay gemacht, aber das ist sind Einzelfälle. Wenn man selber keine Ambitionen hegt, tut es auch ein Auto aus dem Spielzeugbereich, aber dann vielleicht eins, das richtiges Spielzeug ist und irgendwelche Gimmicks hat, die darüber hinwegtäuschen, dass es lahm und unpräzise unterwegs ist. Da gibt es so spektakuläre Auswüchse wie Autos, die umkippen und andersherum weiterfahren können. Das ist lustig und auch meistens nochmal robuster, dass sie im vorgesehenen Einsatzprofil kaum kaputtzukriegen sind, auch wenn man mal drauftritt. Wenn man sich der Einschränkungen bewusst ist, ist aber auch ein Fahrzeug wie das hier besprochene eine Überlegung wert. Sein Geld ist es ja durchaus wert, weil es so billig ist. Nur muss dann klar sein, dass das sehr schnell gehen kann mit dem Wunsch nach mehr. Es kommt immer auf den angepeilten Einsatzzweck an.

Ferngesteuerte Boote ohne Flutkanal machen nicht wirklich Spaß, mit hingegen sehr

$
0
0

Ergänzend zu meinem Artikel über billiger ferngesteuerte Autos möchte ich noch kurz eine möglicherweise interessante Information zum Thema ferngesteuerte Boote abwerfen. Ich hatte in meiner Laufbahn insgesamt drei ferngesteuerte Boote, weil das an sich nach Spaß klingt. In der Praxis haben sich alle drei aber aus verschiedenen Gründen als mehr oder weniger große Spaßbremsen entpuppt. Warum?

Das erste Boot war ein billiges Spielzeugboot für 24 Euro. Das war derart langsam, dass es wirklich nur für Kinder geeignet war. Zudem konnte man da nichts reparieren, was zum Problem wirrd, wenn man sich das Ruder abreißt oder den Propeller beschädigt, weil man zu nah am Ufer fährt. Das passiert schnell, weil das alles nicht wirklich stabil gebaut ist. Reden wir nicht weiter darüber.

Das zweite Boot war ein riesiges Billigteil von eBay (das hier) und es wurde allen Ernstes mit Bleiakkus geliefert. Die waren so schwer und so schwachbrüstig, dass nicht der Anflug von angemessener Geschwindigkeit erreicht wurde. Das Gewicht und dessen Verteilung ist bei Booten sehr kritisch, wie ich schnell feststellen konnte. An dem Boot habe ich etwas rumgebastelt und weiteres Geld investiert und dann war es sogar lustig flott unterwegs. Leider viel zu flott, denn auch das musste ich erst lernen: Ein für die Geschwindigkeit und die Rumpfform und Ruderausstattung zu leichtes Boot kentert sehr schnell. Da ich nicht gerne baden gehe und meine aus meinen Autos entnommenen Teile teurer als das ganze Boot waren, habe ich das Projekt aufgegeben.

Zwischenstand: Schnelle Boote sind sehr lustig, aber ohne einen sogenannten Flutkanal (oder eine ähnliche Einrichtung) muss man sehr vorsichtig fahren oder direkt in Badesachen zum See kommen. Ein Flutkanal sorgt dafür, dass das Boot sich selbstständig wieder umdreht, wenn es gekentert ist. In der Regel funktioniert das so, dass auf einer Seite ein Teil des Rumpfes voll Wasser läuft, wenn das Boot kopfüber im Wasser dümpelt. Dadurch wird diese Seite so schwer, dass der Auftrieb der anderen Seite das Boot umdreht. Richtig herum läuft das Wasser spätestens bei einem kräftigen Gasstoß einfach wieder raus und es geht weiter. Nun stellte sich leider heraus, dass Boote mit Flutkanal recht erstaunlich teuer sind, wir reden da von mehreren hundert Euro. Das ist mir zu viel für ein paar lustige Runden auf dem Schlossweiher, auch wenn diese Boote an sich schon schön sind und sicher auch ihr Geld wert.

Also kaufte ich Boot Nummer drei, ein Robbe Piranhia. Das ist relativ günstig gewesen und brachte einen passenden Motor bereits mit. Das ist wichtig, weil ein beliebiger Motor aus dem Autobereich funktionieren kann, aber nicht muss, weil er je nach Propeller zu heiß wird und man dann den richtigen Propeller finden muss und wieder rumeiert und Geld aus dem Fenster wirft. Also schnell ein Servo rein, einen Empfänger und einen Akku festgeschnallt und los gehts es. Erstaunlicherweise fährt das Boot wunderschön, geht nach wenigen Metern in eine stabile Gleitphase über und zieht dann flott und souverän seine Runden. Das wird leider schnell langweilig, immer so im Kreis fahren und schon da gibt es manchmal bei einem Windstoß diese Momente, wo man kurz schnappatmet, weil es fast kentert. Auch damit ging ich also baden und habe das daher jahrelang herumliegen gehabt. Erst neulich habe ich es wieder ausgegraben und fahrtüchtig gemacht und es macht nachwievor Spaß, aber wieder hätte ich fast baden müssen, weil es gekentert ist. Diesmal, weil ich den Grenzbereich austesten wollte und das geht wirklich sehr schnell. Wohlweislich habe ich das knapp vor dem Ufer gemacht und musste so nur kurz warten, bis der Wind es angelandet hat.

So viel Spaß das Herumgefahre jetzt auch macht, wenn die Angst ständig mitfährt, ist die Sache nur halb so lustig. Hinzu kommt, dass man immer Zuschauer hat und man ahnt schon, dass die meisten von denen nur darauf warten, dass man die Sache übertreibt und vor Publikum baden gehen muss. Das letzte Mal, dass ich im Benrather Schlossweiher baden ging, habe ich mir an einer Scherbe übel den Fuß aufgeschlitzt, mein Bedarf für Wiederholungen ist also eng begrenzt.

Doch nun fand ich im Rahmen meiner Recherchen zu billigen ferngesteuerten Autos auch ein vielversprechendes billiges ferngesteuertes Boot bei Amazon, das tatsächlich einen Flutkanal hat. Oder zumindest einen Mechanismus, der das gleiche bewirkt. Auf dem Produktvideo ist das gut zu sehen. Und das Boot sieht dort auch angemessen flott aus, dass ich versucht bin, die 50 Euro mal zu investieren. Es handelt sich übrigens um dieses Boot hier (kein Affiliate-Link), eigentlich heißt das JJRC Latitude und darunter findet man bei YouTube etwa dieses Video. Ich sag ja, das sieht lustig aus und für 50 Euro kann man hier so viel nicht falsch machen.

HowTo: SharePoint 2019 On-Premise-Installationen mit dem OneDrive-Client unter macOS synchronisieren

$
0
0

Ich komme in meiner Organisation in den Genuss einer SharePoint-Welt. Nun möchte ich nicht darüber klagen, sondern einen kleinen Durchbruch beschreiben, weil es die kleinen Durchbrüche sind, die einem das Leben erträglich gestalten.

Die Synchronisation von Dateibibliotheken mit OneDrive-for-Business gegen SharePoint war bislang immer etwas problematisch, jedenfalls nicht besonders zuverlässig. Unter Windows gibt es hier recht erstaunliche Probleme, wenn die Gegenseite nicht die Microsoft-Cloud ist, sondern eine On-Premise-Installation (also eine lokale Installation innerhalb der Organisation): Manche Dateien sind einfach irgendwie kaputt und lassen sich nicht synchronisieren, die Oberfläche zeigt einem aber nicht an, welche das sind. Wenn man die findet, öffnet und einmal neu speichert, geht es weiter, sonst hat man monatelang ein dauerhaft Synchronisation signalisierendes Tray-Icon. Das Problem ist hier wie es aussieht primär die stiefmütterliche Behandlung der On-Premise-Installationen.

Viel lustiger und auch schwerer herauszufinden war aber, dass der bisherige Mac-Client einfach gar nicht mit On-Premise-Installationen von SharePoint zusammenarbeitet. Alles ist dokumentiert, als würde es gehen, aber es klappt einfach nicht. In irgendeinem Dokument ganz unten nach einer sehr langen Webseitentapete habe ich dann irgendwann den Hinweis entdeckt, dass die Synchronisation mit On-Premise-Installationen im Mac-Client gar nicht implementiert ist. Das ist leider kein Einzelfall, auch der Mac-Version von Outlook fehlen einige Funktionen einfach, ohne dass das klar dokumentiert ist. Etwa können die Mac-Clients keine Raumliste aus dem Directory anzeigen, wo man sich Räume zum Buchen von Meetings heraussuchen kann. Über solche Sachen stolpern wir ständig, sehr unerfreulich. Auch die macOS-Apps von Microsoft werden leider immer noch stiefmütterlich behandelt.

Nun haben wir ein Update auf SharePoint 2019 erhalten, was unter anderem mit der Hoffnung verbunden war, dass der dafür gedachte neue OneDrive-Sync-Client zuverlässiger funktioniert und vor allem auf dem Mac erstmals überhaupt funktioniert. Unsere Windows-10-Domänenrechner funktionieren damit tatsächlich einfach wie vorgesehen, das ließ hoffen. Nicht-Domänenrechner brauchen drei manuelle Registryeinträge, die dem vorinstallierten normalen OneDrive-Client mitteilen, dass er sich in einer On-Premise-Umgebung befindet und wo er da anklopfen soll. Mir ist nicht klar, wieso es dafür nicht einfach eine GUI gibt, wo ich beim Einloggen angeben kann, dass ich mich auf einen bestimmten On-Premise-Sharepoint verbinden will, aber Microsoft macht Sachen ja gerne kompliziert, ich vermute damit die IT-Admins eine schöne Jobgarantie bekommen und ein Interesse daran haben, dass ihr Herrschaftswissen wertvoll bleibt.

Also habe ich mir nach dem Update auf SharePoint 2019 mal den neuen Sync-Client auf einem unserer Macs angesehen. Beim Mac-Client setzt man die drei angegebenen Registry-Einstellungen nicht in der nichtexistenten Registry, sondern in einer plist-Datei. Nach etwas Recherche habe ich auch die richtige gefunden, da gibt es je nach Versionsstand des Clients verschiedene Orte für, in Foren kursieren auch noch ganz andere Pfade. Dieser Artikel von Microsoft beschreibt, was man für macOS wo wie setzt (hier der Vollständigkeit halber das Windows-Gegenstück dazu). Die kann man sich mal aus systemarchitektonischer Sicht genauer ansehen. Ich hätte das anders gelöst und zusätzlich eine GUI für die Vebindung zu On-Premise-Sharepoints vorgesehen, aber ganz dumm ist das auch nicht. Wobei es schon nicht zu Ende gedacht ist, weil man so nur mit genau einem On-Premise-Betreiber synchronisieren kann, mit SharePoints weiterer Organisation kann man also nicht synchronisieren.

plist-Gefummel

Als Mac-Gelegenheitsnutzer bin ich bereits daran gescheitert, diese binär kodierte plist-Datei zu bearbeiten, mit dem Kommandozeilentool /usr/libexec/PlistBuddy kriegt man das aber einigermaßen bequem hin. Der Texteditor BBEdit kann die auch bearbeiten (habe ich später auch noch ausprobiert), zudem XCode, aber das ist ein 8GB-Download. macOS bringt anscheinend von Haus aus keine offensichtliche Möglichkeit mit, diese wichtigen Konfigurationsdateien zu bearbeiten und in den Foren empfehlen einem fast alle XCode. Kann man ja auch mal so stehen lassen.

Damit die Änderung aber auch ankommt, muss man die Anweisung „Aktualisieren Sie den Cache mit den Einstellungen“ aus obigem Artikel richtig verstehen und ernst nehmen. Auch da hilft etwas Recherche: Ein defaults read ~/Library/Preferences/com.microsoft.OneDrive.plist (bzw. der andere längere Pfad der App-Store-Version, der in dem Artikel beschrieben ist) erledigt das, danach kommen die Änderungen auch an, Neustarts reichen nicht.

Dann klappt schon mal der Weg über den Synchronisieren-Button, der die App startet und einen Login mit DOMÄNE\username vorbelegt. Das ist auch der entscheidende Hinweis, wie man das auf dem normalen Weg über den Einrichtungsassistenten der App einrichtet: Die Organisations-E-Mail-Adresse leitet mich jedenfalls immer noch stoisch zum Cloud-Login von Microsoft weiter, was die SharePointOnPremPrioritzationPolicy mit dem Wert 1 ja eigentlich explizit verhindern soll. Sei es drum, mit DOMÄNE\username im E-Mail-Feld (jaja) landet man beim Organisations-Login und kann synchronisieren. Das Feld hat im alten Client übrigens explizit nur E-Mail-Adressen angenommen, wenn ich mich recht erinnere, auf die Idee war ich natürlich damals bereits gekommen.

Genauer Ablauf, wie man den aktuellen OneDrive-Client am Mac an eine On-Premise-Installation von SharePoint 2019 dranbekommt

Also nochmal zum Nachvollziehen, so hat das bei mir auf einem Mac mit Catalina in verschiedenen Konstellationen funktioniert: (Die ~ erreicht man übrigens über alt+n, den \über alt+shift+7. Wäre ja zu einfach, wenn Apple einfach mal die Tasten ordentlich beschriften würde…)

  1. Den neuen OneDrive-Sync-Client runterladen, aktuell klappt das mit diesem Link, die Version aus dem App Store funktioniert auch, ich habe beide ausprobiert.
  2. Je nach installierter Version den richtigen Pfad der plist-Datei bestimmen, die Pfade sind hier dokumentiert, ich nehme im Folgenden den Pfad ~/Library/Preferences/com.microsoft.OneDrive.plist an, weil der übersichtlicher ist.
  3. Ein Terminal öffnen.
  4. Mit /usr/libexec/PlistBuddy ~/Library/Preferences/com.microsoft.OneDrive.plist den PlistBuddy starten.
    1. Command add SharePointOnPremFrontDoorUrl string https://my.on-premise-url.tld eingeben (die URL bekommt man von den IT-Admins)
    2. Command add SharePointOnPremTenantName string TENANT eingeben (den Tenant-Namen bekommt man von den IT-Admins)
    3. Command add SharePointOnPremPrioritizationPolicy integer 1 eingeben (der Registryschlüssel für Windows heißt SharePointOnPremPrioritization, warum auch immer)
    4. Command add IsBusinessProvisioned bool true eingeben (war bei mir schon gesetzt, in dem Fall die Fehlermeldung ignorieren)
    5. Command save eingeben
    6. Command exit eingeben
  5. Mit defaults read ~/Library/Preferences/com.microsoft.OneDrive.plist die Änderungen an der plist-Datei bekannt machen.
  6. One-Drive-Client starten und statt mit der geforderten E-Mail-Adresse mit DOMÄNE\benutzername anmelden. Oder alternativ aus dem Browser heraus auf Synchronisieren klicken und den Client darüber öffnen.

Sieht wüst aus, ließe sich aber mit einem simplen Script automatisieren. Microsoft möchte in Firmenumgebungen aber ohnehin, dass die Deploymentmethoden für solche Policys genutzt werden, als Gruppenrichtlinien bei Windows und ihr Pendant bei macOS. Sonst muss man halt mal ein paar Zeilen Copy and Paste machen. Bei mir hat der dann nach der Einrichting sofort mit dem Synchronisieren angefangen. Slow clap.

Da das ein Testrechner war und ich da nicht alle meine Daten drauf haben wollte, habe ich das abgebrochen und alles wieder entfernt. Ob das also langfristig zuverlässiger funktioniert als der alte OneDrive-for-Business-Client unter Windows, müssen andere herausfinden. Mit der Windows-Version des neuen Clients hatte ich jetzt in der ersten Woche noch keinen Ärger, das lässt hoffen.

Ich hoffe, das hilft jemandem weiter.

Kameras von Sony, Canon und anderen als USB-Webcam benutzen? Ja, aber nicht so!

$
0
0

Zur Zeit gibt es einen sprunghaft angestiegenen Bedarf nach Webcams, weil in Zeiten pandemiebedingter Home-Office-Szenarien anscheinend echt viele Menschen neu in Telearbeit und vor allem Telelehre eingestiegen sind, einige nutzen die Situation auch, um in die Thematik Streaming und Content-Creation einzusteigen, was der aktuell verwendete Begriff für das ist, was zuvor einfach YouTube machen hieß. Jetzt aber nicht mehr, denn es geht eben um mehr als YouTube, konkret auch um Instagram, TikTok und Twitch. Da man auf diesen Feldern wegen des allgemein recht hohen technischen Qualitätniveaus (bereits von Drogeriemarkt-Hauls veröffentlichenden Teenagern) mit der eingebauten Kamera seines Notebooks nicht weit kommt, muss eine bessere Kamera und ein besseres Mikrofon her. Da viele dieser Menschen bereits bessere Kameras von den einschlägigen Herstellern besitzen, kam schnell die Frage auf, wieso man diese Kameras eigentlich nicht über ihren USB-Anschluss als Webcam nutzen kann.

Diese Frage ist auch bei den Herstellern angekommen und so brachten einige der großen Digitalkamerahersteller für einen mehr oder weniger großen Ausschnitt ihres Programms mehr oder weniger hastig Software heraus, die genau diese Funktion nachrüstet. Canon und Panasonic waren besonders schnell, allerdings auch besonders eng in der Auswahl der unterstützten Kameras. Der Canon-Treiber fiel zudem direkt negativ damit auf, dass er nur eine sehr geringe Auflösung von 1024x576 nutzbar machte.

Heute hat Sony nachgezogen und hat den Treiber fast für das gesamte halbwegs aktuelle Sortiment verfügbar gemacht. Das ist die gute Nachricht. Die schlechte ist: Die Auflösung ist ebenfalls auf 1024x576 (oder auch 576p30) beschränkt, das Bild entsprechend matschig. Das kennen wir ja von Canon bereits. Viel schlimmer aber ist: Die Handhabung der Kamera zur Nutzung mit dem Treiber ist sehr fummelig. Ich müsste meine Alpha 5100 bei jeder Benutzung nach dem Einschalten erstmal in den Automatikmodus bringen und dann zurück in der Filmmodus schalten, sonst gibt es kein Bild. Das wäre nur eine nervige Lästigkeit, wenn sich der Webcammodus "Imaging Edge Webcam" und die Steuerung der Kamera über USB "Imaging Edge Remote" nicht gegenseitig ausschließen würden. Bereits für diese Umschaltung muss ich mich also irgendwie hinter meine Kamera bewegen und sie dort vornehmen. Das gilt aber auch für alle anderen Einstellungen, also vor allem ISO, Verschlusszeit, Blende, Weißabgleich, Bildeffekte und so weiter. Einer der Gründe, warum Leute so gerne mit Kameras von Sony für Content-Creation arbeiten ist, neben dem fantastischen Autofokus und dem sauberen HDMI-Output, der leider nicht überall Standard ist, eben diese Fernsteuersoftware, die einem das Gefummel hinter der Kamera erspart. Mir ist nicht ganz klar, warum es diese Einschränkung gibt, denn einige Kameras können direkt in Imaging Edge Remote ohne Probleme ein Livebild über USB auf den Rechner holen. Eine kameraseitige Einschränkung scheint das in diesen Fällen also nicht zu sein.

Also danke an Canon, Sony, Panasonic und Co. für den Einsatz. Aber gut gemeint ist eben nicht immer auch gut. Als Notlösung kann man damit arbeiten, aber in der Praxis ist das eher untauglich. Denn: Es gibt meistens eine viel bessere Alternative, für die man nicht mehr als 30 Euro ausgeben muss, oft auch weniger: So viel kostet der günstigste nicht nervende HDMI-Grabber-Stick und ein passendes Mini- oder Micro-HDMI-Kabel. Dringend empfehlenswert ist ein Stick eines unbekannten Herstellers, den es auf Amazon und eBay von stetig wechselnden Anbietern zu Preisen zumeist zwischen 10 und 30 Euro gibt und auf dem einfach ein HDMI-Logo und die Aufschrift "Video Capture" steht (hier ein zu Recht euphorisches Video dazu). Es handelt sich scheinbar um immer die gleiche Hardware, die ein Eingangssignal mit 1080p30 entgegennimmt und über USB 2.0 (ohne Treiberinstallation) als UVC-Gerät als Webcam an Windows, macOS und Linux zur Verfügung stellt. Genau das brauchen wir hier. Bis etwa 100 Euro rauf, jedenfalls in der aktuellen Pandemielage, gibt es noch zahlreiche andere Geräte, die allerdings fast durchweg irgendwelche Probleme haben und kein besseres Bild liefern (man lese vor dem Kauf die Amazon-Rezensionen und schaue sich Tests bei YouTube dazu an). Oft brauchen sie fragwürdige Treiber oder haben absurd hohe Latenzen oder funktionieren nicht zuverlässig oder haben ein mieses Bild oder haben Aussetzer. Erst oberhalb von 100 Euro bekommt man bessere Geräte ohne solche Einschränkungen, die höhere Auflösungen und Bildwiederholraten beherrschen und/oder irgendwelche Sonderfunktionen bieten. Wenn man Konsolenspiele streamen oder aufzeichnen will, braucht man eine Box bzw. Karte, die das HDMI-Signal latenzfrei weiterleitet, ggf. in 4K und/oder mit HDR. Einige Boxen können auch direkt auf SD-Karte aufzeichnen, man muss also keinen PC ins Wohnzimmer holen, um seine Mario-Kart-Session aufzuzeichnen.

Leider haben die Hersteller von Digitalkameras vor das HDMI-Livebildvergnügen drei ausgesprochen lästige Hürden gestellt:

  1. Nicht alle Kameras liefern ein sauberes HDMI-Livebild. Einige Kameras liefern überhaupt kein Livebild über HDMI, sondern können nur gespeicherte Fotos und Videos darüber ausgeben. Viel subtiler sind allerdings diejenigen Kameras, bei denen sich Bedienanzeigen nicht ausblenden lassen. Besonders tragisch ist das bei der ansonsten hervorragend geeigneten Canon M50, bei der immer mindestens das weiße Rechteck des Gesichtserkennungs-Autofokus eingeblendet bleibt. Das wird man nur los, wenn man den Autofokus deaktiviert. Andere Kameras spielen unbeirrt einfach alle Anzeigen mit im HDMI-Feed aus. Es gibt merkwürdige und leider auch teure Workarounds, die beschreibe ich aber nicht näher. Wer in der Falle sitzt, wird die bei YouTube schnell finden. Hier ist der Webcam-Modus auch trotz geringer Auflösung ein Segen. Ob die eigene Kamera einen sauberen HDMI-Live-Feed liefert, ist leider nicht immer leicht herauszufinden.

  2. Nicht alle Kamera eignen sich für den Dauerbetrieb. Also davon abgesehen, dass man bei vielen Kameras eine nicht ganz billige Dummy-Batterie als Stromquelle benutzen muss, damit sie nicht auf Akku laufen, schalten erstaunlich viele Kameras nach einer gewissen Zeit ohne Auslösung einfach ab. Das kann ausgesprochen lästig werden. Andere Kameras überhitzen oder laufen einfach nicht dauerhaft stabil. Hier trennt sich die Spreu vom Weizen und leider ist auch das nicht so einfach herauszufinden.

  3. Nicht alle Kameras bieten alle Einstellungen, wenn sie ein Livebild über HDMI ausgeben. Manchmal fehlt zum Beispiel der Autofokus oder man kommt nicht an alle manuellen Bildeinstellungen heran. Auch das merkt man oft erst beim Ausprobieren.

Diese Hürden sind mit ein Grund, wieso die Systemkameras von Sony so beliebt sind, denn die meisten bieten ein sauberes HDMI-Signal ohne Einschränkungen, behalten dabei ihren sehr guten Autofokus und laufen erprobterweise auch in 24-Stunden-Streaming-Settings durch. Leider bekommt man hier bei der an sich empfehlenswerten Alpha 5100 weder einen Blitzschuh noch einen Mikrofonanschluss. Beides zusammen gibt es zur Zeit erst bei der Alpha 6300, die fast beim doppelten Preis liegt. Der Blitzschuh ist dabei für ein Mikrofon wie das Rode VideoMicro oder das (aus meiner Sicht im direkten Vergleich bessere) Boya by-MM1 ausgesprochen hilfreich, das schließt man dann auch am Mikrofoneingang an und spart sich einiges Gehampel mit Mikrofonhalterungen und Mikrofonspeisespannungen. Sei es drum, die Alpha 5100 funktioniert wunderbar wie sie ist für alle, denen das Bild von Webcams nicht reicht, aktuell liegt sie neu mit Kit-Objektiv bei 370 Euro aufwärts. Billiger wird man bei Neukäufen wohl nicht wegkommen. Wenn man bereits eine Kamera hat, hilf einfach ausprobieren oder man recherchiert etwas herum. Erste Anlaufstelle sollte die Kamera-Kompatibilitätsliste von Elgato sein. Wird man da nicht fündig, beginnt man mit einer Google-Suche nach "Kameramodell clean hdmi", weil das die häufigste Hürde ist.

Also zusammenfassend: Die Webcam-Treiber der Kamerahersteller sind aktuell nicht mehr als Notlösungen. Schön, dass es sie gibt, danke dafür, aber in den allermeisten Fällen ist der Bildqualitäts- und Komfortgewinn mit einem billigen HDMI-Grabber so eklatant, dass man sich die Arbeit auch hätte sparen und stattdessen Firmwareupdates entwickeln können, die einen sauberen HDMI-Output liefern und die Kamera nicht nach einer gewissen Zeit zwangsabschaltet oder sonstwie mutwillig in ihrer Funktionalität beschneidet. (Ich weiß, dass das vermutlich volle Absicht bei Canon ist, Stichwort Upselling. Das macht es echt nicht besser.)

Fast zuletzt noch ein Tipp für den Webcamkauf: Die inzwischen wirklich alte Logitech C920 ist zu Recht noch immer der Standardtipp, auch wenn sie aktuell schwer verfügbar ist und fast beim doppelten Preis von vor der Pandemie steht. Da kann man bedenkenlos zuschlagen und macht nichts falsch. Also davon abgesehen, dass Webcams an sich noch immer im Vergleich zu "richtigen" Kameras und für mich unverständlicherweise auch im Vergleich zu Smartphonekameras ernüchternd schlechtes Bild liefern. Damit muss man leben können, was viele Content-Creators nicht können und daher (preislich gesehen) mindestens eine Sony Alpha 5100 nutzen. Finger weg von der Logitech StreamCam. Die ist zu teuer für das, was sie an Bild bietet und 1080p60 ist nett, aber wem der Unterschied zu 1080p30 auffällt, dem wird das schlechtere Bild gegenüber der viel billigeren C920 sofort und viel mehr ins Auge stechen. Wenn 4K wirklich ein Thema ist, hilft einem eine Logitech Brio übrigens auch nicht mehr, da muss man so oder so eine entsprechend geeignete Kamera anschaffen und über HDMI reinholen.

Wirklich zuletzt: Das Handy als Webcam einsetzen ist aus Handlinggründen auch eher eine Notlösung, aber immerhin taugt da meistens die Bildqualität sehr. Ich habe da lange herumprobiert und kann für Windows vor allem iVCam empfehlen, weil es sich gut bedient und ein gutes und latenzarmes Bild liefert und für iOS und Android verfügbar ist. Die 10 Euro kann man investieren, wenn man mit dem fummeligen Smartphone-Handling leben kann. Sehr hilfreich dazu: Bei Amazon gibt es zahlreiche Selfie-Sticks, die man auch zum Handystativ ausklappen kann.

Damit sind wir aber noch immer nicht auf dem Niveau der Teenager-Haulistinnen angekommen, denn das Thema Beleuchtung und Inneneinrichting habe ich hier außen vor gelassen. Oh ja liebe Kolleg_innen, daran müssen wir auch noch denken. Mindestens ein Ringlicht für 20 Euro muss also her, damit kann man es schonmal mit Dreizehnjährigen aufnehmen.

Sichere Offsite-Hosting-Backups mit rsync, SSH forced commands und rrsync von beispielsweise einem Uberspace auf ein Synology-NAS

$
0
0

Ich habe einige Tage damit verbracht, ein Offsite-Backup von Webhosts bei Uberspace auf ein Synology-NAS zu implementieren. Dieser Text liefert das Ergebnis inklusive einer detaillierten Anleitung, die sich im Kern auch auf andere Quell- und Zielsysteme anwenden lässt.

Meine Ziele waren dabei folgende:

  1. Das Backup soll täglich laufen und jeweils vorgehalten werden, bis ich selber aufräume.
  2. Ich will nicht jeden Tag alles neu ziehen.
  3. Die täglichen Backups sollen nicht immer wieder den vollen Platz belegen, also bedarf es einer Deduplizierung in irgendeiner Form.
  4. Es soll zuverlässig funktionieren und nicht ständig meine Aufmerksamkeit einfordern, vor allem aber will ich selber in frühestens 2 Jahren wieder tieferen Kontakt dazu haben müssen und dann mit Linux-Standardskills wieder flott gedanklich reinkommen können. Weniger Komplexität ist also Trumpf.
  5. Der Backup-User soll auf dem Livesystem nichts kompromittieren können, also nur lesen und zwar in einem festgelegten Verzeichnis, sonst nichts.
  6. Varianten davon mit einem kleineren Satz an verfügbaren Daten sollen auch Dritten zur Verfügung gestellt werden können. Etwa damit Kunden ihre Daten ziehen können, aber nicht die Sourcen der Applikation und die Konfiguration.
  7. Bestimmte Verzeichnisse (vor allem Caches) sollen ausgenommen werden können. Das ist eine Funktion, die zum Beispiel beim Client-Backup vom Synology Active Backup for Business fehlt, für mich völlig unverständlich.
  8. Die Lösung soll möglichst portabel sein, also vorzugsweise auf jeder Kiste laufen, die SSH und rsync kombiniert bekommt. Oder was auch immer, jedenfalls etablierte und breit verfügbare Standards. Vor allem muss sie aber ohne Softwareinstallation auskommen, die man auf Shared-Hostingsystemen eben nicht (mal eben so) machen kann. Mindestens soll sie auf einem Synology-NAS als geplante Aufgabe laufen und Uberspace und einen Rootserver sichern.

Das klingt doch spontan nach rsync als Basislösung und in der Tat kommt man damit schnell zum Ziel, wenn man die Ziele 5 und 6 ignoriert. Denn alles andere bringt rsync von Haus aus mit. Wollen wir alle Ziele erreichen, ist das gar nicht so viel komplizierter (gut für Ziel 4), wenn man weiß wie!

Vorüberlegungen

Eilige dürfen gerne direkt zur Anleitung weiterscrollen. Für die anderen hole ich hier mal etwas aus.

Hardlinks vs. Deduplizierung vs. Snapshots

rsync kann mit Hardlinks arbeiten, also ein vorheriges Backup als Basis nehmen und alle unveränderten Dateien einfach als Hardlinks darauf anlegen, die praktisch keinen Platz benötigen. Das ist je nach Ausgestaltung eine Form von differenziellem oder inkrementellem Backup und funktioniert auf allen Dateisystemen, die Hardlinks unterstützen (zum Beispiel auch NTFS). Das Synology-NAS kann auf Dateisystemebene zwar auf Basis von Btrfs ebenfalls eine Deduplizierung durchführen oder auch Snapshots als schönen Partytrick, was dem Ziel ebenfalls gerecht würde, aber der Portabilität wegen möchte ich bei den Hardlinks bleiben. Zudem ist das für mich übersichtlicher, weil es einfach so aussieht, als gäbe es täglich ein Vollbackup.

Bei allen Varianten der Deduplizierung muss man sich vergegenwärtigen, dass die Daten tatsächlich nur einmal im Dateisystem vorhanden sind. Ist eine Datei also einmal irgendwie kaputt (Bit Rot aka Datenverschlechterung oder anfangs falsch gezogen), betrifft das alle Backups. Das ist sehr schlecht! Um das einigermaßen in den Griff zu bekommen wird allenthalben dringendst dazu geraten, ein Dateisystem einzusetzen, das Bit Rot mit Prüfsummen erkennen und (bei Redundanz im Speicherpool) auch selbstständig beheben kann. Btrfs kann das zum Beispiel und sollte auf einem Synology-NAS auch genutzt werden, zudem mit Redundanz bei den Platten. Das geht leider nur bei neueren und besseren Synology-Geräten, also Augen auf beim Kauf.

Daher nicht vergessen, beim Einrichten des Shares auch "Daten-Prüfsumme für erweiterte Dateiintegrität aktivieren" einzuschalten oder wie auch immer das auf dem Speichersystem der Wahl heißt. Darunter steht in DSM 7 "Datei-Selbstreparatur und Datenbereinigung stehen zur Verfügung, um die Datenintegrität sicherzustellen" und genau das wollen wir haben. Redundanz im Speicherpool sollte ohnehin gesetzt sein, also irgendeine Technik, die den Ausfall mindestens einer Platte verkraften kann.

Einschänkung von Rechten auf dem Livesystem

Unser Backupsystem sollte natürlich auf dem Livesystem nichts verändern dürfen und auch nur Dinge zu Gesicht bekommen, die wir für das Backup vorsehen. Das rückt spätestens bei Ziel 6 in den Vordergrund, wenn wir Dritten eigene Backups beschränkt auf bestimmte Daten ermöglichen wollen.

Anders herum darf das Livesystem natürlich auf keinen Fall Schreibzugriff auf das Backupsystem haben, damit eine Kompromittierung sich nicht auch auf die Backups ausweiten kann. Also jedenfalls nicht über die bereits kompromittierten Daten im Backup hinaus. Immer daran denken: Backups machen wir nicht nur, um einen Ausfall zu kompensieren, sondern eben auch, um im Zweifel auf einen noch sauberen Stand zurückgreifen zu können, wovon wir folglich mehrere über einen gewissen Zeitraum vorhalten müssen. Dazu muss das Livesystem gar nicht aufgemacht werden oder von Ransomware betroffen sein, auch Fehlfunktionen anderer Art sind immer denkbar. Dieser Aspekt wird leider bei ernüchternd vielen Backuplösungen ignoriert, was wir hier anders machen wollen.

Hier kommt auch rsync alleine an seine Grenze. Also klar, wir können das Backup in eine Richtung implementieren, dann ist eine der beiden Anforderungen schon gelöst. Aber eben noch nicht die andere. Erlauben wir dem Backupsystem also einfach rsyncüber unseren SSH User (von dem es etwa bei Uberspace nur einen gibt, der alles darf), reicht eine dumme Vertauschung der Quell- und Zielparameter, um alle Livedaten zu vernichten. Lacht nicht, ist uns allen schonmal passiert. Ich habe mal, statt ein Datenbankdump mit mysqldump zu ziehen, mich in der Zeile vergriffen und den Befehl für das Einspielen eines älteren Dumps ausgeführt. Ein Moment der Unachtsamkeit und schon ist der Ärger da. Davon abgesehen möchte man sowieso nicht, dass jemand das Backupsystem kompromittiert und darüber die Livedaten angreifen kann. Der Zugriff auf die Backups ist schon unerfreulich genug.

Auftritt SSH forced commands

Wie machen wir das also? Kann man nicht an einen bestimmten SSH-Key Beschränkungen dranbinden? Das wäre jetzt echt praktisch. Hab ich mir gedacht, so ganz naiv. Der Uberspace-Support gab mir dann den Tipp, mich mal mit SSH forced commands zu beschäftigen und sie gaben mir diesen Link dazu. Hey, genau das ist hier die Lösung! Wir führen beim Login mit einem bestimmten SSH-Key, dem wir zudem den interaktiven Login und alle möglichen anderen Dinge verbieten, ein Kommando bzw. ein Script aus, das sich um die gewünschten Beschränkungen kümmert.

Das reicht noch nicht ganz, denn eine Beschränkung auf rsync an sich reicht nicht, weil man damit ja alles mögliche lesen und schreiben kann, worauf der User Rechte besitzt.

Auftritt rrsync

Man kann da natürlich ein Script hinterlegen, das da ausgeführt wird, und darin beliebig am clientseitig ausgeführten Kommando herumprüfen, das dem mitgegeben wird, und alles ablehnen, was man nicht will. Diese Arbeit haben sich die die Entwickler*innen von rsync dankenswerterweise schon gemacht und ein Script namens rrsync zur Verfügung gestellt. Das ruft man als forced command auf und übergibt einen Pfad, in den geschrieben oder aus dem gelesen werden darf. Zudem können bestimmte Funktionen von rsync beschränkt werden bzw. werden standardmäßig verboten. Das löst nun wirklich alle unsere Probleme.

Warum überhaupt Offsite-Backups?

Uberspace und hoffentlich auch die meisten anderen Hostinganbieter machen Backups der Kundendaten und von deren Datenbanken und im seltenen Fall, dass mal etwas schief läuft, haben die Profis dort es sicher besser drauf als ich, die Daten wieder klar zu bekommen. Wozu also eigene Backups zusätzlich, wenn man doch gerade eine Clouddienstleistung bucht, um sich von solchen Operations-Fragen fernhalten zu können? (Einige Hoster zocken einen übrigens komplett ab, wenn man an deren Backups will, das ist echt ein guter Grund, woanders zu hosten.)

Hier habe ich gleich eine ganze Reihe von Einwänden, allen voran: Auch die haben nicht immer alles so im Griff, wie einem das lieb ist und möchte man sich alleine darauf verlassen, wenn es um unwiderbringliche Daten geht? Uberspace zum Beispiel hat als verantwortungsbewusster Hoster und aus gutem Grund in der Dokumentation sehr klar drinstehen, dass man sich tunlichst um eigene Offsite-Backups kümmern sollte.

Cloud (und auch klassisches Hosting fällt für mich in diese Kategorie) bedeutet immer, dass man seine Daten auf Computern Dritter ablegt und denen ist man dann ausgeliefert. Wir brauchen kein schlimmes Szenario wie den aktuellen Angriffskrieg auf die Ukraine oder die damit verbunden Sanktionen gegenüber russischen Kunden westlicher Clouddienste, um zu erkennen, dass deren Backups alleine nicht reichen. Spätestens, als 2021 das eine Rechenzentrum des Anbieters OVH in Straßburg so spektakulär in Flammen aufgegangen und komplett niedergebrannt ist, sollte man sich die Frage stellen, wie zuverlässig die Backups im Rechenzentrum und unter der Kontrolle des Hostinganbieters letztlich sind. Scheiße passiert, das sollten wir immer berücksichtigen. Die Bilder von massiven Zerstörungen in der Ukraine haben wir alle gesehen (warum sollte sowas nicht irgendwann auch Dein Rechenzentrum treffen?), die Angst vor dem russischen Cyberwar ist auch gerade wieder allgegenwärtig geworden und ebenso gehören Ransomware-Gangs seit Jahren zum virtuellen Straßenbild.

Zudem möchte man, wenn man SaaS für Dritte anbietet, denen eigene Backups ihrer Daten erlauben. Sollte man jedenfalls wollen, wenn man im B2B-Bereich unterwegs ist und Kunden nicht in unnötige Abhängigkeiten und Vertrauenssituationen stürzen möchte. Andersherum: Ich empfehle dringend, sich auf geschäftskritische SaaS-Lösungen nur einzulassen, wenn man wenigstens an die eigenen hinterlegten Daten ohne Diskussion dran kommt, um eigene Offsite-Backups machen zu können.

Die Architektur

Das alles vorausgeschickt, habe ich mich also für folgende Backup-Architektur entschieden:

  1. Das Livesystem wird so präpariert, dass beim Login über SSH mit einem bestimmten SSH-Key ein Script ausgeführt wird, das rrsync benutzt und so eine nur lesende Synchronisation per rsync aus einem Ordner unserer Wahl erlaubt. In diesen Ordner legt dieses Script auch vorher noch einen aktuellen Datenbankdump, denn die Datenbank wollen wir natürlich auch sichern.
  2. Wir richten unser Backupsystem so ein, dass es sich mit einem SSH-Key am Livesystem anmeldet und über rsync täglich einen neuen Ordner über Hardlinks anlegt und damit nur die veränderten Daten zieht. Oder nichts, wenn es nichts neues gibt, dann ist man schnell durch. Hier brauchen wir ein Script, das den neuesten Backup-Ordner findet und rsync mit dem --link-dest Parameter als Basis für die Erstellung der Hardlinks anreicht.

Damit erfüllen wir alle Ziele mit einer Einschränkung: Es gibt unter Windows kein natives rsync und meine Versuche mit cwrsync verliefen nicht besonders zufriedenstellend, jedenfalls was die Nutzung meines normalen SSH-Keys anging an einem Synology-NAS als Gegenstelle. Kriegt man sicher hin, aber nicht ohne Gefummel und Gefummel wollen wir bei Backuplösungen nicht haben. Linux und andere unixoide Systeme mit nativem SSH und rsync sollten hingegen kein Problem darstellen. Randbemerkung: Vergesst PuTTY und nutzt die native OpenSSH-Implementierung in Windows 10 und 11. Man will nie wieder zurück.


Eine Anleitung für eine beispielhafte Implementierung mit Uberspace und einem Synology-NAS als Backupziel

Diese Anleitung lässt sich mit leichten Adaptierungen auch für beliebige andere Systeme nutzen, da Uberspace sehr nah am typischen Linux-System arbeitet und Synology seinerseits ebenfalls. Hier sind im aktuellen DSM 7 nur wenige Klimmzüge zu machen, sonst verhält sich alles wie auf anderen Linux-Systemen auch. Ein Raspberry Pi mit irgendeinem Linux drauf tut es also ebenfalls (wobei zuverlässiges Storage da ein Fragezeichen darstellt) oder ein Server mit irgendeiner NAS-Distribution wie TrueNAS (ehemals FreeNAS), OpenMediaVault, Unraid, you name it.

Andere Hoster haben möglicherweise keinen SSH-Zugriff oder erlauben keine Manipulation an dessen Konfiguration oder erst gar keinen Login mit einem SSH-Key oder es gibt dann kein rsync. In dem Fall habt Ihr hoffentlich nicht allzu viel Zeit mit diesem Artikel verbracht oder nutzt die Gelegenheit, mal mit dem Hoster zu sprechen oder einen besseren zu suchen. Aus meiner Sicht ist das eine Conditio sine qua non für Webhosting mit einem Mindestmaß an professionellem Anspruch, aber das sehen viele große Hoster ganz anders. Unter anderem deshalb hoste ich bei Uberspace. Don't get me started on this. Wenn Ihr einen Rootserver zu sichern habt, sollte das alles kein Problem sein, falls einem nicht Plesk oder ähnliches einen Strich durch die Rechnung macht.

Ich setze voraus, dass man grundsätzlich weiß, wie man sich mit SSH irgendwo einloggt und auch sonst nicht vor Angst erstarrt oder in Tränen ausbricht, wenn man ein Terminal benutzt. Terminaleingaben markiere ich mit einem vorangestellten $, damit diese als solche zu erkennen sind, das also natürlich nicht mitkopieren! Diese Anleitung soll anderen vor allem Recherchearbeit ersparen und einen konsistenten Weg aufzeigen, wie man sowas lösen kann. Ich habe mir das selber alles aus zig verschiedenen Quellen zusammengesucht und so lange herumprobiert, bis ich einigermaßen verstanden habe, was da passiert und wie es passiert. Wenn Ihr Verantwortung für irgendwelche Daten tragt, solltet Ihr das auch tun. Also nicht einfach Copy&Paste machen und dann hoffen, dass das schon irgendwie gut geht!

Schritt 1: Vorbereitung des Backupsystems bis zum SSH-Login über einen SSH-Key auf dem Livesystem

Hier wollen wir erst einmal so weit kommen, dass die Eingabe von ssh USERNAME@LIVESYSTEM im Terminal des Backupsystems zu einem Login mit SSH-Key (also ohne Passwort) am Livesystem führt. Wer das schon am laufen hat, kann den Schritt überspringen.

Nehmen wir als Hostnamen unseres NAS-Systems jetzt mal meinnas an, damit die Anleitung funktioniert.

So bekommt man das auf einem Synology-NAS mit DSM 7 recht flott hin:

  1. Wir legen ein Konto für die Backups im DSM an und geben diesem Schreibzugriff auf einen freigegebenen Ordner, auf den vorzugsweise sonst niemand Zugriff hat. Wir nennen das Konto und die Freigabe jetzt mal uberspace-backup. Der eigentliche Speicherpfad lautet dann zum Beispiel /volume1/uberspace-backup, den werden wir nachher brauchen.

    Bei der Freigabe setzen wir die Haken bei "Verbergen sie diesen gemeinsamen Ordner unter "Netzwerkumgebung"" und "Unterordner und Dateien vor Benutzern ohne Berechtigung ausblenden" und deaktivieren den Papierkorb.

    Das Volume, auf dem die Freigabe erstellt wird, sollte mit Btrfs formatiert sein und auf einem Speicherpool mit mindestens der Stufe Mit Datenschutz für 1-Laufwerke-Fehlertoleranz liegen. Das geht alles auch auf einer einzelnen Platte mit ext4, aber so richtig schlau finde ich das nicht, siehe meine Vorüberlegungen.

    Verschlüsseung der Freigabe kann man machen, interessiert uns hier aber nicht. Im nächsten Schritt aktivieren wir aber unbedingt "Daten-Prüfsumme für erweiterte Dateiintegrität aktivieren" (siehe oben zum Thema Bit Rot) und wenn wir wollen auch Dateikomprimierung aktivieren, das ist die Deduplizierung auf Dateisystemebene, die wir wegen der Hardlink-Lösung von rsync aber nicht allzu sehr beanspruchen werden.

    Unser Konto bekommt hier Schreibrechte, alle anderen nur mit gutem Grund, auch nicht die Admingruppe. Die können sich die Rechte zwar selber wieder erteilen, aber wir wollen unnötige Fehlerquellen vermeiden.

  2. Jetzt aktivieren wir unter "Benutzer und Gruppe" im Tab erweitert ganz unten "Benutzer-Home-Dienst aktivieren", damit alle Konten ein Homeverzeichnis bekommen, wo die SSH-Schlüssel abgelegt werden. Leider gilt das für alle Nutzer, damit müssen wir leben.

  3. Unter "Terminal & SNMP" aktivieren wir "SSH-Dienst aktivieren", damit wir uns mit Konten aus der Gruppe Administratorenüber SSH einloggen können. Aus dem Grund werden wir auch jetzt temporär unser neues Konto in die Gruppe der Administratoren aufnehmen. Für den späteren Betrieb nehmen wir das zurück.

  4. Wir haben jetzt ein Konto, passenden Storage und einen Terminal-Zugang über SSH. Darüber loggen wir uns jetzt auch ein. Auf modernen Systemen machen wir dazu ein Terminal auf unserem lokalen Rechner auf und verbinden uns auf unser Backupsystem, unter Windows 10 muss man das native OpenSSH-Feature erst nachinstallieren, wozu es im Netz zahlreiche Anleitungen gibt, notfalls kann man auch wie früher PuTTY nehmen:

    $ ssh uberspace-backup@meinnas
    

    Wir werden beim ersten Verbinden nach einer Prüfung des Fingerprints gefragt und dann auf jeden Fall nach unserem Passwort, das ist das Passwort, das wir für das Konto vergeben und hoffentlich notiert haben. Danach sollten wir einen Prompt in der Form uberspace-backup@meinnas:~$ sehen. Wir befinden uns also im Homeverzeichnis unseres Kontos, ein $ ls -la sollte uns ein leeres Verzeichnis anzeigen, das unserem Konto gehört. Mit $ pwd können wir uns den Pfad anzeigen lassen, der lautet in unserer Anleitung /var/services/homes/uberspace-backup, auf anderen System oft auch einfach /home/uberspace-backup.

  5. Wir müssen jetzt einen SSH-Key erzeugen (oder einen bestehenden verwenden) und die richtigen Rechte zuweisen. Ein

    $ ssh-keygen -t ed25519 -C "uberspace-backup on meinnas"

    erzeugt ein solches Schlüsselpaar im Verzeichnis ~/.ssh, den abgefragten Dateinamen können wir bei id_ed25519 belassen, das Passwort lassen wir leer: Wer hier Zugriff auf den Schlüssel erlangt, kriegt auch eine irgendwie hinterlegte Passphrase heraus und wir haben ein ganz anderes Problem. Der String hinter dem -C ist ein Kommentar, mit dem wir unseren Schlüssel später besser identifizieren können, eine konkrete Bedeutung hat er nicht. Da wir 2022 haben, möchten wir hier unbedingt einen ed25519-Schlüssel haben und keinen RSA-Schlüssel, wie man ihn in vielen Anleitungen sieht. Davon abgesehen, dass das neue Verfahren allgemein als sicherer angenommen wird, ist vor allem der öffentliche Schlüssel viel kürzer und damit handlicher: Niemand scrollt gerne seitwärts in einem Editorfenster in einem Terminal.

    Danach müssen wir mit

    $ chmod 700 ~/.ssh && chmod 600 ~/.ssh/id_ed25519
    

    recht restriktive Rechte für unser .ssh-Verzeichnis und unseren privaten Schlüssel darin einstellen, sonst weigert sich OpenSSH zu Recht, den zu verwenden.

  6. Der öffentliche Teil des Schlüssels muss nun unserem Uberspace-Konto oder wo auch immer unser Livesystem liegt, bekannt gemacht werden. Dazu loggen wir uns im Fall von Uberspace über SSH dort ein und fügen den öffentlichen Schlüssel ans Ende der Datei ~/.ssh/authorized_keys ein, die später noch eine wichtige Rolle spielen wird (weswegen wir nicht den praktischen Shortcut mit ssh-copy-id benutzen).

    Auf dem Backupsystem können wir uns unseren öffentlichen Teil des Schlüssels mit einem

    $ cat ~/.ssh/id_ed25519.pub
    

    anzeigen lassen. Das ist nur eine relativ kurze Zeile, die mit ssh-ed25519 beginnt, gefolgt vom eigentlichen öffentlichen Schlüssel, gefolgt von unserem Kommentar, den wir bei der Erstellung angegeben haben. Hier sieht man auch sofort, warum der so hilfreich ist. Die eine Zeile kopieren wir uns in die Zwischenablage, weil wir sie gleich brauchen werden.

    Auf dem Livesystem bearbeiten wir die Datei mit den akzeptierten Schlüsseln, ich verwende nano dafür, weil ich aus vim ohne Google nie wieder herausfinde:

    $ nano ~/.ssh/authorized_keys
    

    Dort fügen wir am Ende unsere Zeile mit dem öffentlichen Schlüssel des Backupsystems ein, speichern mit Strg+o und schließen den Editor mit Strg-x. Mit dem Livesystem sind wir jetzt erstmal fertig.

  7. Spannung: Wir loggen uns jetzt erstmalig vom Backupsystem aus mit dem neuen Schlüssel ohne Passwort am Livesystem ein:

    $ ssh USERNAME@LIVESYSTEM
    

    Also wie man das sonst auch vom lokalen Rechner aus tun würde. USERNAME ist der Name des Uberspaces, LIVESYSTEM unser Host, also vermutlich irgendeinstern.uberspace.de.

    Wie gewohnt, sollte uns der Fingerprint vom Livesystem angezeigt werden, den wir akzeptieren und danach sollten wir ohne Passworteingabe den Prompt des Livesystems sehen, also sowas wie [USERNAME@HOST ~]$.

    Wenn wir hier angekommen sind, sind wir schon da. Mit

    $ exit
    

    Verlassen wir die SSH-Verbindung auf das Livesystem und kehren zum Backupsystem zurück.

  8. Nun gönnen wir uns etwas, machen Pipi und brühen uns ein neues Heißgetränk auf. Ein bisschen Schulterklopfen ist auch drin. Wenn wir Lust haben, können wir jetzt schonmal mit scp oder rsync herumexperimentieren und staunen, dass das einfach so geht. Bitte nicht zur Begrüßung Quelle und Ziel verwechseln und damit das Livesystem platt machen, das zu verhindern ist erst Aufgabe des übernächsten Schritts!

Schritt 2: Ein Backup-Script mit rsync und Hardlinks

Wir haben also einen funktionierenden SSH-Login mit SSH-Key vom Backupsystem aus auf das Livesystem und einen Pfad, wo unsere Backups gelagert werden sollen, in unserem Beispiel war das: /volume1/uberspace-backup. Viele Backup-Lösungen enden hier und bauen sich ein Script, um mit rsync Dateien über diese SSH-Verbindung zu ziehen. Wenn uns Ziel 5 und 6 nicht so wichtig sind, reicht das auch vollkommen aus. Beginnen wir also mit genau so einem Beispiel-Script für Uberspace-Spaces:

#!/bin/bash

backup_uberspace()
{
    TODAY=$(date +%Y-%m-%d)
    echo ""
    echo "##########"
    echo "Backup ${UBERSPACEUSER}@${UBERSPACESERVER} $TODAY"
    echo ""

    # The source path to backup. Can be local or remote.
    SOURCE=${UBERSPACEUSER}@${UBERSPACESERVER}:/var/www/virtual/$UBERSPACEUSER/

    # Where to store the differential backups
    DESTBASE=/volume1/uberspace-backup/${UBERSPACEUSER}/

    # create our destination path, if it does not exist
    if [ ! -d "$DESTBASE" ]
    then
        mkdir -p $DESTBASE
    fi

    # Where to store today's backup
    DEST="${DESTBASE}$TODAY"

    # Where to find the last backup that is not from today
    # don't be confused by the stupid regex: find doesn't
    # know about quantifiers
    # other folders than our date-based ones are ignored
    LASTDEST=`find ${DESTBASE}* -type d -prune -regex ".*/[0-9][0-9][0-9][0-9]-[0-9][0-9]-[0-9][0-9]" -not -name "${TODAY}" | tail -n 1`
    if [ ! -z "$LASTDEST" ]
    then
        # set a found last backup as base for our hardlinks
        LINKOPT="--link-dest $LASTDEST/"
    else
        # no last backup found, so just create a new one with no links
        LINKOPT=
    fi

    # Run the rsync
    rsync -rltv $LINKOPT $ADDITIONALPARAMS "$SOURCE""$DEST"
}

UBERSPACEUSER=uspuser
UBERSPACESERVER=einstern.uberspace.de

# here you can set some paths (relative to the location of
# the SOURCE), that will be excluded from the backup, the
# examples are good for a typical Symfony-application
# I don't know why, but I could not find a working way to
# encapsulate the given exclude paths within '' oder "",
# so we hope that there is no whitespace involved
ADDITIONALPARAMS="--exclude var/cache/* --exclude vendor/*"

backup_uberspace


UBERSPACEUSER=otherusp
UBERSPACESERVER=andererstern.uberspace.de
# nothing to exclude here, so reset ADDITIONALPARAMS!
ADDITIONALPARAMS=""

backup_uberspace

Was haben wir hier? Erstmal ab Zeile 3 eine Funktion, die wir später für verschiedene Spaces aufrufen können, was wir unten im Script beispielhaft für zwei Spaces sehen. Die Kommentare sollten uns bereits helfen, aber da Shell-Scripting nicht mein Lieblingsthema ist, gehe ich auch nicht allzu tief darauf ein. Ihr wollt und könnt hier sicher ohnehin etwas eigenes und viel besseres implementieren. Was mein Script tut ist folgendes:

Für jeden zu sichernden Space gibt es in unserem Backup-Pfad einen eigenen Ordner, der nach dem Usernamen des Spaces benannt wird. Darin wird für jeden Tag, an dem die Sicherung läuft, ein Unterordner mit dem aktuellen Tagesdatum angelegt. Dann wird geguckt, ob es einen älteren Tagesordner gibt, damit dieser für rsync als --link-destübergeben werden kann. Dieser dient also als Basis für die Hardlinks, die rsync verwendet. Ansonsten werden noch eventuell vorhandene ADDITIONALPARAMSübergeben, in unserem Beispiel sind das im ersten Space exkludierte Verzeichnisse für cache und vendor, die wir im Backup nicht brauchen. Für den zweiten Space bleiben die einfach leer.

Als Schalter für rsync habe ich hier -rltv gesetzt, also rekursives Kopieren, Symlinks werden als solche übernommen, die Dateizeiten werden übernommen und wir kriegen eine wortreiche Ausgabe zu sehen. Nutzer, Gruppen und andere Finessen interessieren mich bei einem solchen Backup nicht, hier sollte man die Schalter also entsprechend den eigenen Bedürfnissen einstellen, wenn man das anders haben will. Also mal in Ruhe die Schalter in der Dokumentation durchgehen und schauen, was man gebrauchen kann.

In der Funktion sollten wir bei der Zuweisung der Variable DESTBASE unseren tatsächlichen Backup-Pfad nutzen, den wir uns oben notiert haben. Das ${UBERSPACEUSER}/ am Ende lassen wir natürlich stehen.

Unter der Funktion sehen wir zwei Blöcke, wo jeweils die Variablen UBERSPACEUSER, UBERSPACESERVER und ADDITIONALPARAMS neu gesetzt werden, um danach die backup_uberspace-Funktion aufzurufen, die diese Variablen nutzt. Sieht für Entwickler wie mich wenig ausgefuchst aus, funktioniert aber. Shell ist wie gesagt nicht mein Lieblingsthema.

Das Script können wir nach unseren Wünschen anpassen und dann irgendwo auf dem Backupsystem ablegen, wo unser Backup-Konto Zugriff darauf hat (ich habe es im Homeverzeichnis liegen). Hier erweist sich die App Text-Editor auf dem Synology-NAS, die man aus dem Paketzentrum installieren kann, als ausgesprochen hilfreich.

Wenn wir das Script auf dem Backupsystem haben, wollen wir es erst mal ausprobieren und an den Details schrauben, denn es gibt immer etwas zu schrauben! Dazu einfach in der SSH-Verbindung zum Backupsystem das Script aufrufen. Nehmen wir an es liegt in unserem Home-Verzeichnis und heißt rsync_backup_from_uberspace.sh, dann sollte es mit einem

$ ~/rsync_backup_from_uberspace.sh

aufrufbar sein. Möglicherweise muss es mit einem $ chmod +x ~/rsync_backup_from_uberspace.sh erst ausführbar gemacht werden, damit das klappt. Wir sollten nun die Ausgabe sehen und wenn wir alles richtig gemacht haben, sollten jetzt alle Dateien aus unserem Webroot vom Livesystem in unseren Tagesordnung auf dem Backup-Speicher landen. Falls nicht, muss noch etwas Feinschliff folgen. Hatte ich erwähnt, dass die Text-Editor-App hier echt hilfreich ist?

Wenn wir zufrieden sind, können wir unser Script im Aufgabenplaner der Diskstation einrichten: Als Benutzer wählen wir natürlich unser neues Backup-Konto, der Zeitplan sollte zweckmäßigerweise täglich oder nach Wunsch auch seltener sein und der Befehl lautet in unserem Beispiel einfach: /var/services/homes/uberspace-backup/rsync_backup_from_uberspace.sh

Das war es an der Stelle schon. Im Aufgabenplaner können wir das Backup nochmal testweise ausführen und unter Aktion auch die Ausgabe einsehen. Protipp: Das ausführende Konto braucht Schreibrechte auf den Ordner, den man bei den Aufgabenplater-Einstellungen für die Logs gesetzt hat. Ohne Schreibrechte dort bleiben die Ausgaben leer und es gehen auch keine E-Mails raus.

Wenn uns das schon reicht, sind wir jetzt durch. Allerdings fehlt hier noch das Datenbank-Backup. Anfangs hatte ich dazu in dem Script noch einen zweiten Part drin, der die Dumps aus /mysql_backups von Uberspace zieht, aber mit der gleich vorgestellten Lösung wurde das obsolet, daher reden wir hier nicht weiter drüber. Alternativ kann man auch einen Cronjob auf dem Livesystem machen, der täglich einen Dump in den Webroot legt (natürlich nicht in den public-Teil davon!).

Ach ja, wenn wir das Script an einem Tag mehrmals ausführen, werden in der Zwischenzeit gelöschte Dateien aus dem aktuellen Backup nicht entfernt. Den entsprechenden --delete-Schalter von rsync habe ich weggelassen, der würde genau das tun. Da ich die Backups ohnehin nur einmal täglich laufen lasse, brauche ich den schlicht nicht und weniger ist mehr bei solchen gefährlichen Dingen. Durch die täglich neuen Ordner schleppen wir übrigens keine Altlasten mit uns herum: Die Hardlinks werden nur für aktuell vorhandene Dateien gesetzt.

Schritt 3: Absicherung über SSH Forced Command und rrsync

Atmen wir einmal kurz durch, denn wir haben bereits ein funktionierendes Backup, das täglich einen Snapshot der Webroots unserer Spaces anlegt. Das ist ein Grund zum Feiern.

Der letzte Schritt ist ein kurzer und spielt sich fast ausschließlich auf den Livesystemen ab. Für jedes zu sichernde Livesystem wiederholen wir die folgenden Dinge:

Uberspace hat pro Konto ein eigenes bin-Verzeichnis, das nutzen wir jetzt. Also auf dem Livesystemüber SSH einloggen und folgende Kommandos eingeben (für andere Hoster ggf. entsprechend anpassen):

$ cd ~/bin
$ wget https://ftp.samba.org/pub/unpacked/rsync/support/rrsync
$ chmod +x rrsync
$ nano rrsync-backup-webroot.sh

Wir landen jetzt im nano-Editor und fügen die folgenden sieben Zeilen ein, die erfreulicherweise für jeden Space gleich sind:

#!/bin/sh

DATE=$(date +%Y-%m-%d-%H%M)
WEBROOT=/var/www/virtual/$USER
mysqldump --all-databases | gzip > $WEBROOT/$USER-$DATE.sql.gz
$HOME/bin/rrsync -ro $WEBROOT
nohup rm $WEBROOT/$USER-$DATE.sql.gz

Was passiert hier? Das ist ein kurzes Script, das einen Dump der Datenbanken des Kontos im Webroot mit Zeitstempel ablegt. Danach wird unser gerade heruntergeladenes Script rrsync gestartet und unser Webroot als read-only angegeben. Wenn das durch ist, wird der Dump wieder gelöscht, damit sich nicht ewig viele Dumps ansammeln. Dieses Script speichern wir mit Strg-o, verlassen den Editor mit Strg-x und machen es ausführbar:

$ chmod +x rrsync-backup-webroot.sh

Jetzt folgt der eigentliche Trick: Wir stellen unserem vorhin hinterlegten Schlüssel unser soeben erstelltes Script als forced command voran. Dazu bearbeiten wir wieder die ~/.ssh/authorized_keys:

$ nano ~/.ssh/authorized_keys

Dort fügen wir vor dem ssh-ed25519 unseres Backup-Keys von vorhin folgende schönen Dinge ein, an den Anfang der gleichen Zeile und getrennt mit einem Leerzeichen:

command="~/bin/rrsync-backup-webroot.sh",no-agent-forwarding,no-port-forwarding,no-pty,no-user-rc,no-X11-forwarding

Wie gehabt speichern wir mit Strg-o und verlassen den Editor mit Strg-x. Das führt nun beim SSH-Login mit diesem Key unser Script aus, das wiederum mit rrsync dafür sorgt, dass da nur ein rsync mit . als Quellordner erlaubt ist, wofür dann der im Script mit dem -ro-Schalter angegebene Pfad genutzt wird. Die anderen no-Schalter sorgen dafür, dass auch nichts anderes mit dem Key gemacht werden kann, was SSH alles noch so kann. Das forced command sollte das zwar ohnehin verhindern, aber explizit verbieten schadet auch nicht. Wenn wir den Dump ohnehin nicht brauchen oder anders erstellen, können wir uns das Script übrigens auch sparen und das rrsync-Kommando direkt hier übergeben: command="~/bin/rrsync -ro /var/www/virtual/$USER"

Das ist schon die ganze Magie!

Wer mitgedacht hat, weiß, was jetzt noch zu tun bleibt: In unserem Backup-Script auf dem Backup-System müssen wir die Pfadangabe hinter dem : bei SOURCE= durch einen . ersetzen. Also wird aus

SOURCE=${UBERSPACEUSER}@${UBERSPACESERVER}:/var/www/virtual/$UBERSPACEUSER/

jetzt ein

SOURCE=${UBERSPACEUSER}@${UBERSPACESERVER}:.

Denn rrsync sorgt dafür, dass man im richtigen Quellverzeichnis landet und zwar nur dort. Also speichern wir unser Backup-Script und probieren es aus (auf der Shell oder im Aufgabenplaner). Es sollte auf Anhieb wie gehabt weiterlaufen, aber nun einen Dump der Datenbank beinhalten.

Wenn alles funktioniert, können wir unser Konto uberspace-backup wieder aus der Administratoren-Gruppe auf dem NAS entfernen, denn einen SSH-Zugriff auf die Shell brauchen wir jetzt erst wieder, wenn wir erneut herumprobieren müssen. Dabei nicht vergessen, dass unser Konto Schreibrechte im für Logs im Aufgabenplaner vorgesehenen Ordner braucht, sonst bleiben die Logs leer.


Finale Gedanken

Das meiste hiervon klappt auch auf anderen System, das Ziel der Portabilität sollte also erreicht sein, vermutlich lässt sich das auch unter macOS so machen. Vielleicht mag das ja mal jemand ausprobieren. Auf Linux-Systemen sollte das überall weitgehend identisch klappen, Besonderheiten beim Storage und der Kontenverwaltung natürlich nicht berücksichtigt. Ob Windows als Backupsystem funktioniert, ist mir nicht ganz klar, mit einem WSL (das is das eingebaute Linux) vermutlich schon, aber das ist ja auch eher Gefummel.

Wenn es um Ziel 6 geht, also um das Zurverfügungstellen von nur bestimmten Dateien, habe ich schon eine Idee, wie man das am besten lösen kann: Statt das Webroot-Verzeichnis bei rrsync zu erlauben, legen wir uns ein gesondertes Verzeichnis in ~ an, wo wir die gewünschten Dateien und Verzeichnisse über Symlinks reinmappen. Statt des -l Schalters von rsync, der Symlinks als solche kopiert, nutzen wir dann den -L-Schalter oder besser verständlich --copy-links, dadurch werden die Links aufgelöst und wir bekommen die verlinkten Dateien und Verzeichnisse geliefert. Mit den Symlinks können wir bequem bestimmen, welche Daten zur Verfügung stehen. Ausprobiert habe ich das noch nicht, bei Gelegenheit schreibe ich dann mal ein Update.

Insgesamt halte ich das für eine erfreulich unkomplexe Lösung, weil sie sehr nah an den absoluten Basics (also SSH und rsync) bleibt, die seit Jahrzehnten millionenfach im täglichen Dauereinsatz und entsprechend stabil und erprobt sind. Wir verzichten auch auf eigene selbstgebastelte Spielereien und Gefummel, die die Stabilität in Zweifel ziehen würden. Unsere Ziele sind jedenfalls erreicht und wir haben wieder etwas über Linux gelernt. Genau deswegen mag ich Uberspace so gerne: Man lernt immer wieder etwas neues, was man auch anderswo anwenden kann. Ich werde mit dem System auch einen eigenen Rootserver sichern, von dem bislang und seit vielen Jahren bereits täglich mit SCP ein Komplettbackup der Hostingdateien und einiger Settings auf ein Synology-NAS im gleichen Netzwerk (aber anderem Gebäude) gezogen wird. Hier lebe ich bislang damit, dass eine Kompromittierung meines NAS-Systems auch das Livesystem kompromittieren würde, wobei das NAS-System in einem VLAN ohne Zugriff von Außen viel besser abgesichert ist, als das Livesystem auf einer VM in einer privaten Cloud. Die neue Lösung kommt mir hier dennoch wesentlich smarter vor.

Bitte um Feedback

Ich hoffe, dass ich keinen Schritt vergessen habe oder Dinge auf dem NAS schon eingerichtet waren, die standardmäßig nicht eingerichtet sind. Wer Feedback dazu hat, darf sich gerne bei mir melden über Twitter oder per E-Mail oder auch persönlich. Feedback zum eigentlichen Script oder "xy ist eine ganz dumme Idee, mach das besser so:" ist auch stets willkommen. Ansonsten hoffe ich, dass ich jemandem weiterhelfen konnte und dass dieser Artikel hilft, dass man etwas weniger Infos zusammensuchen muss, wenn man seine Hostingdateien sicher und bequem sichern möchte.

Zum Abschluss noch ein paar Hostingtipps für Projekte ab mittlerem Wichtigkeitsniveau:

  • Betreibt keine Rootserver, wenn Ihr nicht sehr genau wisst, was Ihr da tut. Wirklich, lasst das!
  • Hostet nicht bei Hostern, die Euch den Zugriff auf Backups nur gegen halsabschneiderische Summen erlauben.
  • Hostet nicht bei Hostern, die Euch in sinnvoll bepreisten Paketen keinen SSH-Zugriff erlauben oder keinen SSH-Zugriff über Keys oder kein rsync anbieten. Das geht sehr wohl alles auch bei Shared-Hosting.
  • Hostet nicht bei Hostern, bei denen zusätzliche FTP-Accounts (für abweichende Unterordner) nur ohne Verschlüsselung funktionieren. WTF?
  • Hostet nicht bei Hostern, die kein Let's Encrypt anbieten, weil sie Euch für jede (Sub-)Domain gesondert mehrere Euro pro Monat und Zertifikat berechnen wollen und großzügigerweise ein(!) Inklusivzertifikat ins 10-Euro-Paket legen.