I have had this domain btcapi.com for quite some time now (since 2012?) and never got around to doing anything with it. Today, on Mother's Day of all days, I sat down and built an API that can return the price, bid, and ask for a handful of crypto currencies: btcapi.com.
If you have your own website, you can also embed a dynamic image from the site to keep your readers updated on a specific crypto currency.
The feeling of a liminal space came over me for the first time while working as a computer technician at a company called Hess, which no longer exists. I had to deliver a printer to a school in Waiblingen. It was the summer holidays and the building was completely deserted. A vast school auditorium, empty of students, teachers, and staff. The architecture from the eighties made such a powerful impression on me that I never forgot that feeling.
It was only later that I learned there is a name for it: liminal spaces.
The feeling is best described as a sense of displacement. Combined with the sensation of entering somewhere forbidden, yet somehow familiar. A strange blend of emotions. A blend that, as I have come to understand, not everyone is able to experience.
The next time I felt it was when I came across Caspar David Friedrich's "Wanderer Above the Sea of Fog" from 1818, by chance, in the Hamburger Kunsthalle. The painting almost pulled me inside it. Liminal spaces are usually devoid of any human presence, but it was a similar feeling nonetheless. The wanderer was what made the space and the sheer dimensions of the sea of fog tangible to me.
Then the same feeling again, standing in front of a painting at MoMA in New York. "Christina's World" by Andrew Wyeth from 1948, showing only the back and the back of the head of a paralyzed girl in a cornfield. Perhaps it has something to do with not being able to see the faces of the protagonists.
Another time I experienced the feeling of a liminal space after the Tokyo Game Show in 2025, in a hotel west of Tokyo Bay, where I had the entire sixth floor to myself. A certain scenario reminiscent of the Overlook Hotel in The Shining. Over three days of recovery at the hotel, I did not see a single other person on my floor, which had more than fifty rooms. At the same time, an immense contrast after spending four days in Shinjuku, one of the most densely populated places on earth.
The last time was just two days ago, on my way to Liberec in the Czech Republic. I was driving through the border triangle between the Czech Republic, Poland, and Germany on country roads, with not a single car passing me for half an hour in pouring rain. The aggressive open-cast mining in the area has already distorted the landscape in a strange way, which only added to it.
Yesterday I met Jordan Mechner, the creator of Prince of Persia, at the Anifilm Festival in Liberec, Czech Republic, after he was interviewed about his games, graphic novels, and films. In my opinion, a true renaissance man.
I got to ask him how he came up with the 60 minutes the player has in Prince of Persia. I expected a much more storytelling-driven answer, but got a very technical one, which makes it even more beautiful, because the story arc of Prince of Persia is, in my opinion, up there with Back to the Future's perfect story.
In Prince of Persia 1, the player has 60 minutes to rescue the Princess from a forced marriage with the evil Vizier. Unfortunately, the protagonist, the Prince, is thrown into the dungeons and has to fight his way back to the surface and into the palace.
Jordan said he came up with the 60-minute limit because he wanted to put pressure on the player to perform well. Prince of Persia was designed from the beginning so that the player would simply respawn at the start of the current level and keep trying to get past a thorny section they were struggling with. If there were no consequences, it would get boring very fast. So he came up with the 60-minute limit, which fits so perfectly into the story. It not only puts pressure on the player to overcome an obstacle (and presumably gives them a tremendous sense of achievement when they do), it also ensures they don't spend too long stuck on one section, but can replay the game from the start, breezing through the levels they've already mastered.
At a time when it was normal to put coins into an arcade machine and feel the pressure of not losing your lives and your money at the same time, that kind of pressure simply didn't exist on a PC. That's why Jordan added the 60-minute time frame.
I as a 10-year-old struggled hard with level 3 and the skeleton, and I actually have a scar on the back of my head as a testament to that.
When I was 18, I drove with my friends Kenny and Markus (shoutout!) to Ludwigsburg, to a place called the Rockfabrik — a club exclusively for heavy metal, rock, and punk.
The drive there and back took a little over an hour, and there was always plenty to talk about.
In 1999 we were driving home and I had a terrible earworm — a song that wouldn't leave my head. I still had fragments of the lyrics rattling around in my mind. The internet was still in its infancy, and while Google was a known name, it wasn't nearly as powerful as it is today.
Still, after a long, long time, I managed to "google" the song.
I thought about this phenomenon for a while, and one afternoon at school — I was doing an apprenticeship as an IT specialist for application development in Stuttgart at the time — I built a website where you could upload song lyrics and find songs that were stuck in your head.
The first song I added to the database was my earworm from the Rockfabrik: The Cardigans – My Favourite Game.
It's hard to imagine now how crude the internet was back then. Mobile phones were three-to-four-line monochrome bricks. YouTube, with all its music, didn't exist yet.
So, My Favourite Game became the song with ID 1. At home, my brother had a collection of CDs with booklets containing lyrics. I typed them all out by hand — OCR wasn't reliable yet and I didn't have a scanner.
In the end I had around 200 song lyrics, an index, a search function, and a small forum on the site. I hosted everything on my school's server, where I had a quota of 20 MB.
Every now and then I'd borrow a CD from a friend and copy the lyrics from the booklet into my database, which I named lemvista — after my nickname "lemming". There was already an AltaVista, so this was my lemvista.
Since the database worked like a wiki — before wikis were a thing — anyone could add lyrics. I noticed that the site was gradually being picked up by search engines, almost as if by magic — well, by Google — and people started adding lyrics themselves.
Occasionally I received bizarre requests. Someone, for example, had added every single Metallica lyric to the database, except for one song — "Die, Die, My Darling" — which I had added. Their request was that I delete my entry so they could have all the lyrics listed under their name. Weird. I complied, but I also added the submitter's name — as they called themselves in the forum — next to the song title in both the search function and the catalogue.
That triggered a genuine stampede across entire artists' catalogues. People wanted their name next to their idols.
I added more features: the last five songs added along with the submitter's name now appeared on the lemvista homepage.
There was no stopping it. What had started as 200 lyrics grew to 39,000. I went to my teacher and explained that the storage space was no longer enough and I needed more room. He doubled my quota, but also asked me to find a new home for the site long-term, since it was by then responsible for more than 99% of the school's total traffic.
I found a new home at Hetzner and, for the first time, got hands-on experience with Linux, web servers, domains, and all the rest.
That came at a cost. I was barely earning any money back then, and 100 Deutschmarks a month in server fees was absurdly expensive. On top of that, I suddenly found myself in a kind of community manager role.
The jump from 39,000 lyrics to nearly 100,000 happened within a matter of weeks. The site seemed to be exploding in popularity.
I added new sections for chords, sheet music, and news, along with a Top 10 of the most prolific submitters. New layout too.
By 2001 I had tens of thousands of page impressions a day — and nothing but costs. The advertising deals I tried to put on the site brought in a few pitiful cents a day.
On top of my actual job as a programmer, managing the site had become too much. For a hobby project, it was a lot of work — more than I could handle.
What I found remarkable was how strong the submitters' need for recognition was. Lyrics were being added just to get your name on the homepage next to the last five entries.
Lyrics were added just to claim a particular ID in the database. "Your song such-and-such was added with ID 100,000." There were actual competitions to hit these milestone numbers.
There was a race to stay in the Top 10.
Spent the whole evening adding 200 lyrics. That should be enough to stay in the Top 10 for the next two weeks.
Absurd. I had created a kind of digital medal board that was increasingly spiralling out of my control. When I expanded the Top 10 into a Top 50, that was the day the internet truly came knocking.
Someone on lemvista.de had tracked down my parents' phone number — I was still living at home — and called my mother to ask what on earth I thought I was doing by "devaluing" the Top 10 with a Top 50.
My mother, who had no idea the website even existed, was rather shocked to have strangers calling up and making demands about a Top 10 list.
The compromise was a Top 10, followed by a very long stretch of nothing, and then a Top 11–50.
Absurd. Something had to change. I was done.
I thought about handing the site over to the most active forum members. That's also why I had no interest in the advertising deals that kept landing in my inbox. One of them came from Marek Bärlein, who was already doing SEO at the time, and my site apparently had — unbeknownst to me — considerable potential. In an email he asked whether I'd be interested in a "partnership". I declined, saying I had other plans for the site.
I wanted to get rid of it.
Marek wrote back asking what I was planning, and I said "give it away". Back came an immediate reply: "How much?"
I was on my lunch break at the time. I turned to a colleague who was also a fan of the site and told her, "Someone wants to buy lemvista.de." She asked, "Oh wow, how much are you thinking?" I said, "No idea. €300?" That would have almost covered the server costs.
She told me I was out of my mind. "You should be asking for €30,000."
I turned back to my computer and typed to Marek: "€3,000?" With a question mark. A minute later an email arrived: "Sold."
Obviously I was pleased. I probably could have asked for more, but in the end it was no longer entirely my site, and the money was enough for my driving licence and my first car — a beat-up Suzuki I bought off a colleague.
I had learned a great deal, and I was glad that lemvista.de had a good home with Marek for a while longer.
I actually ran into Marek years later in the Berlin startup scene, in an entirely different context. Small world.
Addendum: As it looks like the domain lemvista.de was free again and I just bought it back. Lucky me.
After installing OpenClaw, I was wondering how I would approach AI and Alex Hormozi put it in the right words (verbatim):
Do not see AI agents as roles in companies, but in workflows. What does this employee do? Break it down in workflows and try to automate it.
So, I came up with the idea of a workflows folder in OpenClaw's workspace. It contains a bunch of markdown files which are … workflows. I can tell my AI: "Remi, run workflows/FILING.md" and it executes that workflow. With that I can build, fix, improve and finally release it as a cron job. Memory loss is not a problem. Everything lives in that MD file.
Or more generally speaking, the workflows folder is best understood as a collection of lightweight operational applications for agent-driven work. Each item in it represents a recurring business process that is being turned from an ad hoc human task into something structured, repeatable, and increasingly automatable. These are not just notes or prompts. They are working process definitions: documents and supporting files that describe what a task is, how it should be handled, which tools it can use, what decisions are safe to automate, which exceptions matter, and where human review is still required.
In practice, a workflow usually begins as a supervised helper for a real business task. It might start with rough instructions and only partial reliability, but then it improves through repeated use. Each run reveals edge cases, failure modes, ambiguities, and operational constraints. Those lessons are written back into the workflow until the process becomes more precise, more resilient, and less dependent on constant human steering. Over time, the workflow starts to behave less like a fragile script and more like a small app with defined behavior, guardrails, and expected outputs.
That is why "workflow" is the right word here, but also why "app" is not wrong. These workflows are essentially agentic apps expressed through instructions, rules, memory, tooling, and iteration. They are designed to do real operational work, not just demonstrate an idea. A good workflow captures the business logic of a task, the practical handling rules, and the safety boundaries needed for automation. It becomes a durable unit of capability that can be tested, improved, and eventually trusted.
The long-term goal is not merely to document processes, but to operationalize them. Once a workflow has been exercised enough times and its behavior is well understood, it can often be promoted into a cron-driven background process. At that stage, the workflow has effectively matured from a manually supervised agent helper into a reliable automation that runs with little oversight. In other words, the workflows folder is where recurring business chaos is slowly distilled into dependable agent behavior. It is both a workshop and a deployment pipeline for operational intelligence.
I might be doing something very conventional without knowing it, but it feels so powerful.
Reading through my old blog articles, I come to the conclusion that back then there was somehow more going on with me.
Just like today, I had projects running in parallel AND on top of that the time to put it all into an article. Quite impressive when I draw the comparison. Well, I'm no longer 26 either, and I no longer imagine that I know everything.
Oh, who am I kidding? Myself, of course, since nobody really reads along here anymore and I still think I've got all the answers.
While reading through the articles, I also noticed that hardly any of the old-timers still maintains their blog. No wonder, really — the heyday of blogging was 16 years ago too.
I myself will breathe further, new life into this blog and dive into AI, automation, game development, business ideas, gardening, and mental health. Basically everything that goes through my head. And if one or two people are there to share it with me, then I'll be happy about that.
A lot. A lot has happened in the last ... wait a second ... 197 months. 6,025 days?
I lived for a brief time in London, now have moved to Brandenburg. Started a family, started two new businesses, had one IPO, sold the other one to American Express GBT/HRG and I'm now back into making games.
I still had all these years the domain lemming.name, but the blog went silent around 2009 and vanished from the surface of the internet the same year.
It's a shame, not gonna lie. I loved writing these articles and I also enjoyed reading them when I found this backup, which I kept. It reminds me of this article where I wrote about the burdens of the digital age putting on our offspring.
I communicated with so many great minds in this blog through comments and cross postings in other blogs, but unfortunately, most of these blogs are gone.
I might write these new sentences into the void and nobody answers them.
Also in English. Don't know if that is a good idea. Perhaps it widens my audience. Perhaps it has the opposite effect.
Man, I loved writing in this blog. Did I say this already?
If you knew me from ... 16 years ago ... Say hello, my dear.
Mittlerweile bin ich über die Hälfte meines Lebens Programmierer. Ich schreibe Programme, seit ich 13 Jahre alt bin und mir ein Freund mal gezeigt hat wie das geht. Seit dem bin ich Autodidakt, habe einen riesigen Spaß am Entwickeln und schlage mich ständig mit dem Gedanken herum. wie man
a) etwas am einfachsten programmieren kann
b) den größten Nutzen daraus zieht - klassisch 80/20 - und
c) wie der Kunde/Benutzer am wenigsten Hürden hat es zu verwenden.
Denn wenn ich etwas gelernt habe ist es dass, um so länger etwas dauert zu programmieren, um so wertloser der Nutzen ist und um so schwerer es zu bedienen ist, um so weniger wird es verwendet.
Und ich bin nicht Programmierer geworden, damit ich tote Software entwickle.
Auf meinen Weg habe ich ein paar Erfahrungen gemacht, die ich bemerkenswert finde. Eine ist typisch dafür, dass sich ab und an ein Programmierer keine Gedanken macht, wie seine Software zu bedienen ist - brauch er ja auch nicht, er hat sie schließlich programmiert und weiß wie sie tickt. Aber leider sind Menschen noch nicht so weit dass sie Gedanken lesen können und deswegen gibt es ReadMes, die keiner liest - ach ja - und Interfaces.
Anno 2000 hatte ich eine kleine Software geschrieben die es Computer-Spielern ermöglichte Half-Life (oder CS or whatever) hinter einem Proxy zu spielen. Das Programm war recht populär und wurde ein paar tausend mal runter geladen und wird stellenweise heute noch verwendet - wenn ich den Update-Homephonies glaube, die ich damals eingebaut habe.
Die Installation war recht kompliziert, denn sie erforderte die oben erwähnte ReadMe. Soweit kamen die meisten aber nicht, denn das erste “Tab” der Software beinhaltete eine Monitoring-Oberfläche auf der kleine “Lämpchen” die Netzwerkaktivität anzeigten. Grün blinkend, wenn Aktivität. Rot wenn keine Aktivität.
Und da war der Fehler. User die die Software zum starteten sahen zuerst nur rote Lämpchen. Rot! Also stimmte etwas nicht - gleich Mail an den Entwickler. Am Tag als das Ding zum ersten Mal auf einer Spiele-Newsseite war, wurde ich nur so mit Mails über rote Lämpchen bombardiert, was mich umgehend dazu veranlasste eine neue Version online zu stellen, bei der die Lämpchen per default “grau” waren. Somit hatte die Mailflut tatsächlich ein Ende.
Rot hat also eine Art Stopp-Wirkung die man sich auch zu nutze machen kann - z. B. um auf eine ReadMe hinzuweisen.
Neue Domains anhand neu angelegter Wikipedia-Seiten finden
October 01, 2009
Eine kleine Idee geht mir durch den Kopf. Selber habe ich keine Zeit für sowas, aber der eine oder andere könnte evtl. daraus ein Geschäft machen.
Bei Wikipedia gibt es eine Seite auf der man neue Artikel aufgelistet bekommt. Meistens irgendwelche Käffer oder irgendwelche Nacktmul-Unterarten die noch fehlten. Neue Wortschöpfungen finden sich dort aber ebenfalls. Selbstverständlich Jahre bevor sie im Duden zu finden sind. Eigentlich eine Goldgrube für alle Domaindealer, die nach neuartigen Wortkreationen (zumeist neuartige Kofferworte) Ausschau halten um sich diese Domains dann zu sichern.
Z. B. für das kofferwort Teuro (Tausendeuro, oder auch gefühlte Inflation durch die Währungsreform) gab es in Wikipedia bereits Mitte 2004 einen Artikel. Die Domain teuro.de gibt es (vermutlich) erst seit 2006.
Gestern hat’s doch die kleine, lustige Aktion mit dem Yeaah in die Tagesthemen geschafft - wenn auch einen Tag zu spät. Der Kommentator, der Herr Hinrichs, vom BR hat’s aber leider nicht ganz kapiert worum es in _erster_ Linie beim alle so yeaah machen ging. Und in _zweiter_ Linie kommt es mir so vor als ob das nun doch nur Störer und Piraten für sich gerne nutzen möchten - was mindestens so lame ist wie die Frasendrescherei der Bundeskanzlerin.
Sich jetzt noch hin zu stellen und nach jedem Satz yeaah schreien hat mehr den Character “NSDAP ab 1928″, die ebenfalls gezielt Kundgebungen von Centrum und SPD gestört haben - allerdings mit Schlägertrupps. Aber für den Vergleich werde ich sicher auch gleich virtuell abgewatscht, denn im Internet, da hat der Herr Hinrichs zumindest Recht, weht eine ganz andere Qualität von Wahlkampf.
In der Fabrik habe ich drei Monitore, drei wirklich sehr, sehr große Monitore, in die ich jeden Tag starre. Drei Monitore deshalb, weil man als Programmierer unglaublich viel Platz benötigt um effizient arbeiten zu können. Die heutigen grafischen Benutzeroberflächen sind leider nicht sehr perfekt, und mal ehrlich, wer nutzt tatsächlich die Möglichkeit zwei Fenster nebeneinander anzuzeigen? Oder sie in ihrer Größe zu ändern. Ein unglaubliches Gefrickle ist es jedes Mal das wieder so hin zu bekommen, wie es war und man es haben will.
Heute habe ich zufällig mit meinem Chef-Sysadmin darüber gerede, dass wir gerne auch mal einen anderen Windows-Manager benutzen könnten als Gnome. AFAIK hat ein Programmierkollege sogar KDE bei sich installiert. Ich würde - wenn ich die Option habe - eher zu etwas simpleren tendieren, als zu einem fetten KDE oder Gnome. Die Rede war dann von Ion, das einen etwas anderen Ansatz verfolgt als üblich.
Bei Ion werden Fenster nicht übereinander angeordnet und durch eine Z-Achse voneinander getrennt, sondern die gesamte Oberfläche des Monitors wird in Frames zerteilt, die von den Programmen ausgefüllt werden. Das ganze lässt sich sehr schön über Tastaturkürzel erledigen - die man zugegeben erstmal auswendig lernen muss - danach geht es aber sicher raketenschnell zwischen den Fenster hin und her zu springen und trotzdem ALLES im Überblick zu bekommen. Zusätzlich können die einzelnen Frames noch Tabs haben, mit denen man sie mit anderen Programmen doppelt und dreifach belegen kann. Auch hier kann man mit den Tastenkürzel hin und herspringen. Die Webseite von ion verspricht, wenn man der absolute Crack beim auswendig lernen der Kürzel ist, dann kann man arbeiten ohne je wieder die maus anfassen zu müssen. Geil!
Vielleicht endlich der Allheilsbringer mit dem ich nicht noch eine vierten Monitor anbauen muss.
Ion scheint eine größere Fanbase zu haben, allerdings macht mir der Geisteszustand des finnischen Chefentwicklers etwas Sorgen, dass ich auf ein totes Pferd setze. In seinem Blog hat er erst kürzlich verlauten lassen, dass er wegen dem unzulänglichen Linux nun zu Windows XP gewechselt sei - wtf. Ansonsten verlangte er früher von den Paket-Managern der einzelnen Linux-Distributionen, dass sie das Ion3-Paket nach spätestens 28 Tagen ohne Änderung als “unsupported” oder “old” markieren.
Ich versuche hier - in meinem sträflich vernachlässigten Blog - die nächste Woche darüber zu berichten, wie es mit Ion läuft und ob ich auf ewig den Z-Achsen-Fenstermanagern entsage.
Update Jetzt habe ich den Nachmittag mit Ion3 verbracht und muss sagen, dass ich wirklich begeistert bin. Tastenkürzel gibt es gefühlt 100 Stück. Das installieren war ein bisschen ein Act, weil mein Ubuntu wegen den Grafikkartentreibern total veraltet ist. Mal sehen wie sich Ion3 im Alltag schlägt.
Update Kdevelop scheint Ion nicht zu mögen. Wenn ich die Ion3-Session speichern möchte, schließt Kdevelop alle offenen Code-Fenster und einige Plugins. Wenn ich das nicht mache, ist alles okay mit Kdevelop.
Update Am Wochenende habe ich ein wenig etwas progrmmiert und ich muss sagen, ab und an drücke ich noch die Tab-Taste um zwischen den Fenstern springen zu wollen, aber wenn ich das einmal abgelegt habe, dann wird’s mit Ion richtig flutschen. Jetzt muss ich nur noch rausfinden, wie ich das Teil auf meinem Mac zum Laufen bekomme. Ein paar Anwendungen die etwas zicken, habe ich schon ausgemacht. U. a. Sunbir, das ohnehin bei allem zickt und total buggy is,t und Kdevelop bei dem die Dialoge irgendwie anders behandelt werden.
“Um es ganz klar zu sagen: Die SED ist gegen Gewalt, das weiß jedes Kind, ich sag das hier noch einmal ganz deutlich. Wir (die SED) sind gegen Gewalt gegen Demonstranten (…) und gegen Unbeteiligte. Und wir, die SED, sind die einzige Partei im Bundestag, die Gewalt, als … Politik … als MIttel der Politik weder im Inland noch im Ausland billigt sondern strikt ablehnt.”
Ganz klassischer Fall von selektiver Wahrnehmung der Vergangenheit.
Vor kurzem bin ich an zwei Plakaten der SED vorbei gegangen - hängen ja überall in Berlin-Mitte. Auf dem ersten stand
Wenn man ein bisschen Ahnung von Computern, hat dann merkt man das ALLE Hacker-Szenen in Hollywood - nun gut, so gut wie ALLE Hacker-Szenen in Hollywood - grottenschlecht sind. Als Regisseur muss man nur die folgenden Regeln beachten, wenn man will, dass die Hackerszenen in seinem Film richtig “hacky” sind.
Hacker brauchen nur eine Telefonzelle oder einen iPod um sich irgendwo “einzuhacken”.
Betriebssysteme sehen nicht aus Windows, sie müssen einen schwarzen Hintergrund haben und auch sonst ist alles irgendwie interessanter und mit Karten.
Zum Finden eines Benutzerprofils (stets mit Foto) muss der Bildschirm ALLE Benutzerprofile in rasender Geschwindigkeit hintereinander anzeigen.
Umso mehr 3D man verwendet um das Innenleben eines Computers zu visualisieren, umso besser.
Ein H4ck3r verwendet keine Maus, auch nicht um Satellitenfotos zu vergrößern.
Das Tippen auf der gottverdammten Tastatur darf auf keinen Fall etwas damit zu tun haben, was auf dem Bildschirm passiert.
Wichtige Daten können nur von Workstations im Herzen des Feindes herunter geladen werden und nur durch beständiges Tippen kann der Download davor bewahrt werden abzubrechen.
Echte Hacker müssen in der entscheidenden Szene nur noch “Enter” drücken um zu gewinnen.
Wirklich alles ist miteinander vernetzt - sogar der Kühlschrank, der dank Gegenspieler-Hacker, zum Killer-Kühlschrank mutiert.
Hacker machen Backups auf Disketten - denn sie sind die einzigen die Backups überhaupt machen.
Hier mal meine Liste an Filmen die besonders durch dämliche Hackerszenen sich hervorgetan haben.
Platz 6 Staatsfeind Nr. 1
Klar hat die NSA ein paar richtig coole Spielzeuge. Aber ich kaufe leider nicht, dass es nur zum Kontrollieren von Zahlungsströmen ein super chiques GUI haben bei dem man auch die Fotos der Kontoinhaber sieht.
Platz 5 The Italian Job
Eine Italienische Stadt, die ein zentrales System zum Steuern von Verkehrsampeln hat, in das man sich rein hacken kann und das auch ein wunderschönes GUI mit Straßenkarte hat? In Italien bekommen sie nicht mal zentral die Beschilderung hin, geschweige denn ein Computer-Ampelsystem - träum weiter.
Platz 4 Firewall
Aus einem iPod und irgendwelchem Handy-Zeugs lässt sich ein iPhone bauen - ähh, nee ein Dings zum Gegner austricksen. Der tatrige Harison Ford mag früher mal mit dem klapprige Millenium Falcon dem Imperium entkommen sein. Dass er in Notime das iPod-OS knackt kaufe ich ihm nicht ab.
Platz 3 Das Netz
Es reicht ein Pi-Symbol auf einer Homepage zu entdecken um beinahe zu tote gehezt zu werden? Man ist ja dann auch noch der einzige der sich die Homepage mal genauer angeschaut hat.
Platz 2 Hackers
Genau.
Platz 1 Jurassic Park
Nur mit Virtual Reality lassen sich Gen-Sequenzen schnell bearbeiten! Betriebssysteme sind in 3D und brauchen mindestens eine Minute um von einer Datei zur anderen zu fliegen, während der Velocity Raptor einem über die Schulter schaut.
Man stelle sich vor, die Menschheit fühlt sich gezwungen ob der verheerenden Umweltentwicklung endlich auf erneuerbare Energie umzusteigen. Super! Drei Haken an der Sache.
1. Der Zug ist abgefahren. Auch wenn wir jetzt nur noch erneuerbare Energie verwenden. Gletscher, Polkappen oder einen uns bekannten Meeresspiegel wird es in wenigen Jahrzehnten nicht mehr geben. Evtl. könnten wir es gerade noch schaffen dass nicht die ganze Welt unbewohnbar wird. Grönland soll angenehm mild dann sein.
2. Das ganze wird verdammt viel Geld kosten.
3. Das Geld, wird so unsicher angelegt sein, wie man es sich kaum vorstellen kann. Nun gut, das ganze ing in Afghanistan aufzubauen wäre etwas unsicherer. Aber wer so vermessen ist und glaubt er könnte Gaddafi und anderen Nord-Afrikanischen Führern eine Stromleitung durch das Land legen, an dem ganz Europa hängt, ohne sie auf die Idee zu bringen, sie könnten mal auf den Tricker drücken, der hat wohl die letzten 100 Jahre hinterm Mond verbacht und kein Öl gebraucht um da hin zu kommen.
Statt jeden Häuschenbauer in der EU mit einem Solardach auszustatten, will man lieber eine neue Abhängigkeit für die Industrienationen Europas zu schaffen.
Nein, dann wäre ja alles dediziert, unkontrollierbar und kein so ein tolles Geschäft bei dem wenige viele in der Hand hätten. Wie engstirnig! Sollte Desertec jemals gebaut werden, werden das die kleinen Leute sehr bald bereuen.
Btw. für 400.000.000.000 Euro kann man annähernd 11 Millionen Haushalte auttark mit Strom vom eigenen Dach versorgen.
Auf meinem Streifzug im Internet zum Thema “Frontier - Elite II”, einem meiner Lieblingsspiele aus der späten Kindheit, bin ich auf einen interessanten Artikel von Matthias Meier gestoßen. Sind wir allein, im Universum? Gut, die Frage wird vom Autor nicht unbedingt verneint, aber besucht hat uns (und unterworfen oder unsere Entwicklung behindert) bisher keiner - und schließlich hatten Aliens ein paar Milliarden Jahre Zeit um die Erde für sich einzunehmen, ehe die Menschheit auf den Plan (Planeten) traten.
Matthias schreibt ferner:
Selbst wenn man vermuten möchte, dass die Ausserirdischen längst hier sind uns uns beobachten: durch ihre Anwesenheit in der Galaxis müssten sie Spuren hinterlassen und sich dadurch verraten. Eine Galaxis, die nur so wimmelt von intelligentem Leben lässt sich von einer aufmerksamen aufstrebenden Zivilisation wie der Menschheit nicht verbergen. Und bevor wir jetzt total paranoid werden und uns vorstellen, dass das ganze Sonnensystem von einem gewaltigen Fernsehschirm umgeben ist, der uns diese leere Galaxis nur vorgaukelt, akzeptieren wir lieber das unübersehbare: Wir sind allein.
Nun, ich teile nicht die Meinung dass das Fehlen von interstellaren Besuchern ein Beweis dafür ist, dass es keine Aliens gibt - was Matthias ja auch nicht kategorisch ausschließt.
Wenn wir nur unsere Galaxie - die Milchstraße - nehmen und annehmen dass nur jedes 1.000 Sonnensystem Planeten besitzt und davon nur jedes 1.000 Sonnensystem einen Planeten hat der ähnlich weit entfernt von seiner Sonne ist, wie die Erde zu unserer Sonne, und jeder 1.000 von diesen Planeten gleich alt ist wie unsere Erde, dann gibt es hunderte von Zivilistaionen wie die unsere in unserer Galaxis und Milliarden von ihnen in unserem bekannten Universum.
Es wäre absolut vermessen, anzunehmen dass es so viel Raum gibt, und niemand würde ihn bewohnen. Der Grund warum uns noch keiner besucht hat, ist dass alle Zvilisationen ungefähr auf der gleichen Entwicklungsstufe stehen wie wir. Schließlich hatten sie nur ähnlich lange (+/- ein paar Milliarden Jahre) Zeit sich zu entwickeln und die “Gaps” im All nimmt man nun nicht gerade mit einem Hops. Wenn wir auf jemanden treffen, dann in einer relativ nahen Zukunft (ebenfalls ein paar Milliarden Jahre). Allein sind wir nicht in der Galaxis, nur in der unmittelbaren Nachbarschaft.
Augmented Reality - Mein ultimatives Spielzeug der Zukunft
June 05, 2009
Ich wünsche mir eine Brille, oder vielmehr einer Vorrichtung mit der ich Daten, Bilder, dreidimensionale Objekte auf meine Netzhaut - direkt in mein Auge - projizieren kann. Diese Brille sollte meine Kopfbewegung, meine Kopfneigung, meine Blickrichtung und meine exakte Position auf der Erde erkennen können. Ebenso meine direkte Umgebung anhand eines Abtasters/Landschafts-Scanners/3D-Scanners. Es sollte ebenso eine Breitband-Internetverbindung besitzen.
Mit solch einer Brille wären Monitore überflüssig, denn ich könnte meine “üblichen” Anwendungen überall auf unendlich viel Platz und tiefen projizieren. Ähnlich wie ich das mit <a href=”http://hardtware.de/products/3dgui.php”>3D GUI</a> von 2004 gemacht habe. Man stelle sich einen leeren Schreibtisch vor. Statt Monitoren habe ich nur eine Tastatur und eine Maus auf dem Tisch. Direkt vor mir sehe ich durch die Brille die Fenster meiner Anwendungen “schweben”. Schaue ich zur Seite, bleiben die Fenster dank der Daten über meine Kopfbewegung, Kopfneigung und Blickrichtung korrekt an der selben Stelle stehen - wie wenn Sie auf echten Monitore wären.
Meine wichtigen Dateien liegen als Dokumente auf meinen echtem Schreibtisch vor mir. Durch den 3D-Scanner kennt die Brille meine unmittelbare Umgebung mit allen Hindernissen. Dadurch lassen sich Dokumente auf dem Schreibtisch bewegen, lassen sich durch die simulierte Schwerkraft auf den Tisch fallen und stossen sich physikalisch korrekt an meiner realen Kaffeetasse.
Wenn ich eine E-Mail abschicke, sehe ich noch wie sie sich vor meinen Augen in einen Briefumschlag verwandelt und durch’s Fenster fliegt. Möchte ich ein Dokument mit einem Kollegen teilen, werfe ich es ihm mit einer Handbewegung durch den Raum, wobei es auf seinen Schreibtisch landet.
Auf der Straße ist mir die Brille ebenfalls eine Hilfe. Mittels GPS kennt sie meine exakte Position und zeigt mir beim Spaziergang nach Hause viele interessante Dinge. Neben (natürlich) viel Werbung sehe ich an den Hotels, ob sie noch Zimmer frei haben, am Kino, was gerade läuft. Vor dem Kino sehe ich sogar einen 3D-Trailer des neuen 3D-Films (Terminator XVI). Wenn ich lustig bin, könnte ich ihm erlauben den Ton des Trailers auf meinen Kopfhörern abzuspielen. Auf dem Heimweg verlaufe ich mich in meinem greißen Alter nun auch nicht mehr. Auf dem Boden ist der Weg sehr gut sichtbar für mich als Pfad markiert.
Was früher Real Estate war und im 21. Jahrhundert Domains sind, wird in der Zukunft dann wieder Real Estate sein - allerdings in der Augmented Reality. Das Recht seine Werbung, seine 3D-Installation in Augmented Reality auf ein Stück Land via Internet einzustellen kostet bei den Augmented Reality Anbietern Geld - und das nicht wenig. Level-Designer sind die Schöpfer von Augmented Reality Computerspielen (Pacman und Doom in Echt). Sie bauen 3D-Werbeanimationen, die mich auf dem Gehweg anspringen, Interfaces mit denen ich vor dem o. g. 3D-Kino Karten kaufen kann, die 3D-Filme produzieren.
Die echte Welt, angereichert mit einer zweiten, die erst durch eine AR-Brille sichtbar wird, wäre für einen Programmierer ein wahnsinnig spaßiger Ort.
Cloud Computing - Die Zukunft der Systemintegration in der Hochverfügbarkeits-IT
May 11, 2009
Als Google sich entschied ihre Serverinfrastruktur auf kostengünstigen Workstations zu verteilen war das eine einfache TCO-Kalkulation die nur möglich gemacht wurde, durch a) die annähernd unbegrenzte Anzahl an günstigen Studenten die jeden Tag die abgerauchten Maschinen fixen konnten und b) die Software ein renduntantes Betreiben gewährleisten konnte. Des Weiteren war es ja auch nicht so schlimm wenn eine Maschine mit einer Million gespeicherten oder indizierten Seiten verpuffte. Dann fehlten eben für ein paar Tage die Seiten in den Suchergebnissen bis die Maschine ersetzt wurde und sie ihre Arbeit nachgeholt hatte.
Für Firmen die transaktionsbasiert sind, ein unmöglicher Approach um Kosten an der Hardware zu sparen - bis jetzt.
Mit Cloud Computing betritt ein neuer Begriff die IT-Bühne, der vor ca. drei Jahren auch schon als “Grid-Computing” bekannt war. Allerdings trifft Cloud es besser. Nicht greifbar, sichtbar, aber da.
Cloud Computing versteht sich, der Definition von VMware folgend, als eine Menge Server die Virtualisierungen von Betriebssystemen möglich machen. Statt ein Betriebssystem (man sprich auch von Application, weil man am besten pro Anwendung eine VM / ein Betriebssystem betreibt) auf nur einer Maschine zu virtualisieren, wird dieses auf mehreren Maschinen verteilt. Stirbt eine Maschine aus der Cloud weg (Hardwaredefekt), sind die Applications/VMs in der Cloud trotzdem weiterhin seamless verfügbar. Ähnlich wie bei einem RAID.
Das ganze lässt sich afaik auf andere Resourcen ausweiten, wie z. B. Festplattenspeicher, die dann wieder in die virtualisierten Betriebssysteme eingehöngt werden.
Redundante Systeme waren schon immer sehr teuer, mit den nun neuen Cloud Computing Tools von VMware könnte zum ersten Mal der Approach gelingen, mit Standard-Hardware Hochverfügbarkeit für fast jede erdenkliche Anwendung - zumindest auf der Hardware-Ebene - zu schaffen. Kombiniert mit einem Hochverfügbarkeitsnetzwerk wie das von Netcetera und der 3tera Cloud oder mit EC2 von Amazon könnte man sich als Systemintegrator sehr locker und beruhigt in den Sessel zurücklehnen. Nur müsste bei 3tera und Amzon EC2 der Preis noch stimmen. Hier sollte sich die Open Source-Umgebung mal etwas bewegen.
Vor kurzem ist an meinem Mac die Festplatte gecrasht. Ich hatte wirklich sehr wichtige Daten darauf, die ich zum Glück alle gesichert hatte, hatte aber trotzdem einen Gap bei den sehr wichtigen Daten (Pages-Dokumente) von einer Woche und bei den immerhin noch wichtigen Daten (Bilder, Musik, etc.) einen Gap von 8 Monaten. Supergau, wenn ich auf diesen Stand zurückgeworfen worden wäre.
Apple geht mit TimeMachine schon den richtigen Weg. Digital Lifestyle sollte auch bedeuten, dass man die digitalen Pendants der obsolet gewordenen Fotoalben auch gefälligst brav sichert. Ein System zur Verfügung zu stellen, dass wirklich der letzte Depp versteht ist hier unabdingbar. Privat wie auch geschäftlich wird Datensicherung und somit Datenrettung vernachlässigt. Ich bin da keine Ausnahme. Laut WiWo würde der Verlust von einer Stunde Kreditkartentransaktionsdaten bei einem Kreditkartenunternehmen ein Schaden von US$ 1,5 Millionen verursachen. Auch für Kleinunternehmer, Fotografen, etc. wäre es an eine Insolvenz hinreichende Katastrophe, wenn alle Daten nur auf einer Festplatte liegen und diese würde crashen oder gestohlen werden.
Um zumindest eine adäquate, private Datensicherung zu haben, wäre ein tägliches Backup, am besten Nachts, wünschenswert. Im Falle eines Falles, wäre nur ein Tag Arbeit zerstört. Das kann man leicht wieder aufholen. Undenkbar, wenn eine Woche, ein Monat, ein Jahr, für immer alles verloren gehen würde.
In einer Gesellschaft die auf dem Weg ist überwiegend digital zu werden, sind Backups das nächste große Ding. Oder vielmehr Datenwiederherstellung denn Datensicherung. Ich kann mich erinnern, dass mir vor laaaanger Zeit Hunter Jerusalem ein Online-Storage-System gezeigt hat, bei dem man, wie nun mit TimeMachine und einer externen Festplatte, seine Daten auf Servern im Internet speichern konnte. Mit zunehmenden Breitbandanschlüssen hat das ein paar etliche Vorteile.
Die Datensicherung ist geographisch getrennt und somit ideal um Diebstahl und Naturkatastrophen zu kompensieren
Die gesicherten Daten sind global verfügbar. Beispiel: Handelsreisender auf der anderen Seite der Welt wird seine Aktentasche gestohlen. Mit einem neuen Notebook kann er innerhalb des gleichen Tages alle seine Daten wiederherstellen
Datensicherung und Datenrettung sind unabhängig von Medien, die wiederum kaputt gehen können
Aus versehen gelöschte Daten können geographisch unbegrenzt wiederhergestellt werden.
Der einzige Nachteil ist, dass man seine wichtigsten Daten jemand Fremdes in die Hand gibt und darauf vertraut, dass dieser keinen Missbrauch damit betreibt.
Ich habe mit einem Kollegen über die Möglichkeiten eines Online-Backup-Systems gesprochen und mit ihm beleuchtet, welche Keyfeatures das System benötigen würde und was es kosten müsste, damit man es als Unterhosen-Business aufziehen kann.
Der wichtigste Faktor ist, dass es nicht aussieht wie eben ein Unterhosenbusiness, sondern wie ein super seriöses Unternehmen, dass sich auf Datensicherung versteht.
Es muss einfach sein. Am besten so einfach wie TimeMachine. Backup, an, aus, inkrementel, komplett.
Es muss eine Versionierung unterstützen.
Es muss nicht nur Daten einfach sichern, sondern sie auch in notime wiederherstellen können. Ein neues Notebook (der beklaute Handelsreisende) darf keine Rolle spielen um alle Daten wieder schnell dorthin zu packen, wo sie zuvor (auf dem alten Notebook) gesichert wurden.
Was sicher auch ein wichtiger Faktor ist, ist die Preisgestaltung. HP hat sich an seinen $US 5,- für unlimitierte Kapazität verschluckt und den Dienst upline.com am 31. März 2009 eingestellt. Gerade einmal ein Jahre nachdem sie gestartet waren. Mein Kollege meinte, man könne die Tarifgestaltung anhand der Sicherheitslevels die das Backup geniest anknüpfen, was meiner Meinung nach ziemlich Bullshit ist, weil eine schwache Verschlüsselung, die dadurch günstig wird, impliziert, dass das Backup unsicher ist. Nicht das was ich will, wenn ich ein Backup im Sinn habe. Vielmehr liegt es nahe den Preis an das Speichervolumen für das Backup zu knüpfen. Dadurch lassen sich auch die Kosten für Server und Hardware kalkulieren und es gibt keine böses Erwachen wie bei Upline.com - für beide Seiten.
Ich denke Online-Datensicherung - oder Online-Datenrettung - wird noch ein riesen Thema und Firmen werden mit zunehmender Bandbreite das Thema für sich finden. Wenn jede Workstation, jedes Notebook, unabhängig von seinem Standort ein einfaches, zuverlässiges und nicht teures (günstig will ich nicht sagen) Backup verfügt, dass auch den Vorteil einer Versionierung besitzt, dann ist das ein wahrer Benefit für Outsourcing-getriebene Firmen sein.
Ein jedes Mal wenn man neue Server-Hardware kauft und dabei auf den Preis schauen muss, ist die Frage: Wird die Hardware mit meiner Distribution funktionieren, oder muss ich mich auf Nächte an Kernel bauen vorbereiten? Das klappt schon ganz gut indem man sich durch das Newsnet schlägt und nach seiner Hardware + Linux sucht.
Wenn man die Probleme mit der Hardware und einer Distribution schon kennen würde, könnte man vorab daran seine Kaufentscheidung treffen. Mir schwebt vor: Eine Webseite bei der die Besucher Ihre Erfahrung mit Ihrer gekauften Hardware systematisch ablegen. Z. B. Anhand Distribution, Hardware und Erfahrung (Rating: “Einwandfrei, out of the box”, “mit Konfigurationsanstrengungen”, “Nacht im Fass”). Evtl. dann auch Hilfestellung geben, indem sie Links zu Treibern oder HowTos posten. Oder direkt HowTos eingeben.
Monetarisiert werden könnte das Ding sicher durch Spenden und durch Affiliate-Links zu Hardware-Dealern, die die Linux-Kompatible Hardware bereitstellen.