Die Reise, die keine war

Eyjafjallajökull. Das ist keine Krankheit. Auch nicht das Passwort für den NSA Zentralrechner. Sondern der Grund warum im Flugverkehr nichts mehr geht. Das Eisfeld auf Island, unter dem ein Vulkanschlund aktiv wurde und zur Zeit große Mengen an St…

Advertisements

Eyjafjallajökull. Das ist keine Krankheit. Auch nicht das Passwort für den NSA Zentralrechner. Sondern der Grund warum im Flugverkehr nichts mehr geht. Das Eisfeld auf Island, unter dem ein Vulkanschlund aktiv wurde und zur Zeit große Mengen an Staub und Wasserdampf in die Atmosphäre spuckt, legt weite Teile Europas im Flugverkehr lahm. Und wie eine Verhöhnung des Gegners schaut es normalerweise dort so aus:

Moz-screenshot-5

Die Staubwolke zieht über Europa und wird auch in den nächsten Tagen beeinträchtigungen im Flugverkehr bringen. Manche meinen, der Sommer fällt heuer aus durch die Abschattung der Sonneneinstrahlung durch Staubpartikel in hohen Luftschichten aus.
Bei mir ist jedenfalls der Flug nach Berlin ausgefallen. Um 6:25 hätte die AirBerlin nach Tegel starten sollen, und mich zum Open Data Hackday im Anschluss an die re:publica 2010 zu bringen. Daraus wird nun nichts, dafür ein paar Impressionen aus Schwechat:

Moz-screenshot-8
Moz-screenshot-6
Moz-screenshot-7

“We have a fuckin’ vulcano-situation here!

Freie Verwaltungsdaten kosten – bringen aber auch allen etwas!

Gegenwärtig beginnt man in Österreich über offene Verwaltungsdaten nach dem Vorbild der USA, Großbritannien, Australien, und bereits viele andere mehr nachzudenken. Während diese Bestrebungen von den jeweils höchsten Stellen der Regierung [1, 2] u…

Gegenwärtig beginnt man in Österreich über offene Verwaltungsdaten nach dem Vorbild der USA, Großbritannien, Australien, und bereits viele andere mehr nachzudenken. Während diese Bestrebungen von den jeweils höchsten Stellen der Regierung [1, 2] unterstützt werden, gibt es in Österreich keine Bestrebung in diese Richtung, die von Politik oder Verwaltung offiziell unterstützt wird.
Vor der Implementierung von Open Data für die Verwaltung gibt es eine Reihe von Fragen zu klären: Continue reading “Freie Verwaltungsdaten kosten – bringen aber auch allen etwas!”

Idea for Implementation – TiPSi

This is my proposal for Hack the Government taking place in Berlin April 17 & 18 2010 after re:publica conference. Implement a site which extracts from twitter trends and subsequent search using the twitter API links, longify those links and prese…

Tipsi-s

This is my proposal for Hack the Government taking place in Berlin April 17 & 18 2010 after re:publica conference.

Implement a site which extracts from twitter trends and subsequent search using the twitter API links, longify those links and present those links to the user.

Rationale: Twitter offers very liberal access to the information daily exchanged and stored on twitters data centers. Based on the powerful search API, accessible as

http://search.twitter.com/
  and in conjunction with the trend API
http://search.twitter.com/trends.format

a huge amount of meta information can be extracted from public tweeds of roughly 25 Million registered users (End 2009, ref. Wikipedia http://en.wikipedia.org/wiki/Twitter) and counting. By using the trend tags as search criteria and an additional filter which returns only web sites, a comprehensive list of hot and interesting sites can easily be created. Before these sites are of actually useful, they have to be de-shortened as the vast majority of links within tweets are shortlinks. Some longurl-services provide such a service for free as

http://www.longurlplease.com/
  or
http://longurl.org/

Request for implementation – TiPSi (Tipping sites)

Initial release: Implement a site which extracts from twitter trends and subsequent search using the twitter API links, longify those links and present those links to the user.

Additional charactersitics

Near after version 0.1

  • Rank the top 10? pages according to heuristics, like time density of tweets returned by tweet search, time in which the associated twitter tag or hashtag remains in trend, …
  • extract geoinformation from users pointing to a site and present those geo-id on a zoomable heat-map (see http://code.google.com/p/gheat/)

Later, for version 0.2

  • store tweeds assigend to aggregated links. This is valuable data which might be further processed using NLP algorithms (http://www.nltk.org/) like n-gram analysis, stemming, ontology-mapping à la OpenCyc (http://opencyc.org/)
  • display trends on websites over time – time machine

Technology

Neutral to Technology, but a fair insight into JSON, AJAX/Comet for increased usability and XML is required. Django (http://www.djangoproject.com/) or Turbogears (http://turbogears.org/) from the Python-camp come to mind as they offer a fair level of abstraction yet do not narrow down creativity. Google App Engine (http://code.google.com/appengine/) happily hosts such a framework!
A database backend is required for more advanced features as time-frame. As I currently ennvision no deep nested relations a NoSQL featured backend as MongoDB (http://www.mongodb.org) or Tokyo Tyrant (http://1978th.net/tokyotyrant/) would probably fit best.

Expected effort

Two seasoned programmers can implement the basic framwork, ie. retrieving trends, resubmitting searches to get links, longify those links and present them in a pleasant manner within a hackday. A hackday has more to offer than eight hours;)

Attribution

Creative Commons License
This work by TiPSi is licensed under a Creative Commons Attribution 3.0 Austria License.

Understanding Americans and the Health Care System

Americans don’t want a European nanny state — fine! But, as a lawyer friend, Manuel Wally, put it to me, “When it comes to health it makes sense to involve government, which is accountable to the people, rather than corporations, which are account…

Americans don’t want a European nanny state — fine! But, as a lawyer friend, Manuel Wally, put it to me, “When it comes to health it makes sense to involve government, which is accountable to the people, rather than corporations, which are accountable to shareholders.

 

Ever wanted to know who’s behind the Google Pagerank? Seems like it’s not so much it’s eponym any longer

Udi Manber edit As a Vice President of Engineering, Udi is responsible for core search. Before joining Google early in 2006, Udi was CEO of A9.com, a Senior VP at Amazon.com, and Yahoo’s Chief Scientist. He started working on search algorithms in …

Udi Manber

As a Vice President of Engineering, Udi is responsible for core search. Before joining Google early in 2006, Udi was CEO of A9.com, a Senior VP at Amazon.com, and Yahoo’s Chief Scientist. He started working on search algorithms in 1989 with the invention of Suffix Arrays (with Gene Myers) while he was a professor at the University of Arizona, and he was a co-developer of several search packages, including Agrep, Glimpse, WebGlimpse, and Harvest. He started developing search and other software tools for the web 2 months after Mosaic was announced in 1993, and continued ever since. While in academia, he also worked in the areas of theoretical computer science, computer security, distributed systems, and networks. He won a Presidential Young Investigator Award in 1985.

Udi holds a Ph.D. in Computer Science from the University of Washington.

1995: Why the web will never take of, Original by Clifford Stoll

After two decades online, I’m perplexed. It’s not that I haven’t had a gas of a good time on the Internet. I’ve met great people and even caught a hacker or two. But today, I’m uneasy about this most trendy and oversold community. Visionaries see …

After two decades online, I’m perplexed. It’s not that I haven’t had a gas of a good time on the Internet. I’ve met great people and even caught a hacker or two. But today, I’m uneasy about this most trendy and oversold community. Visionaries see a future of telecommuting workers, interactive libraries and multimedia classrooms. They speak of electronic town meetings and virtual communities. Commerce and business will shift from offices and malls to networks and modems. And the freedom of digital networks will make government more democratic.

Baloney. Do our computer pundits lack all common sense? The truth in no online database will replace your daily newspaper, no CD-ROM can take the place of a competent teacher and no computer network will change the way government works.

Priceless; Why the web will never take off

Der Browser als Cloud-Computer

Das Google mit ChromOS den (Chrome) Web Browser zur prinzipiellen Computeroberfläche macht ist bereits bekannt. Googles Strategie zur Zielerreichung ist wieder geprägt von zwei technischen Konvergenzen, die zusammenwirken: HTML5: Mit HTML 5 steht …

Das Google mit ChromOS den (Chrome) Web Browser zur prinzipiellen Computeroberfläche macht ist bereits bekannt. Googles Strategie zur Zielerreichung ist wieder geprägt von zwei technischen Konvergenzen, die zusammenwirken:

HTML5: Mit HTML 5 steht eine ungeheure Weiterentwicklung von HTML4 (the Web as we know it) bevor: Audio und Video werden Standardelemente, (Hier, Hier) aber was viel entscheidender ist: Mit HTML 5 wird der kontrollierte Zugriff auf die lokale Festplatte möglich. Das heißt, Google Dokumente können auch lokal gespeichert werden, Web-Gadgets können lokal ausgeführt werden (ohne Zugriff auf das Internet), Web-basiertes E-Mail funktioniert auch ohne Internetverbindung (und synchronisiert sobald man online geht). Die zweite Neuerung werden Web-Sockets sein, die Browseranwendung (lokal ausgeführtes Facebook aus dem cache) kann damit Internetverbidnungen zu beleibigen Rechnern im Internet aufbauen

Javascript: Googles Browser Chrome ist bekannt für seine Geschwindigkeit. Das ein Browser “schnell” wirkt, hängt von drei Faktoren ab:

  • load-time (Wie lange braucht der Browser vom ersten “klick” bis er “responsive” ist)
  • render time: Wie lange dauert die visuelle Darstellung des übertragenen Inhalts (z.B. Darstellung von tief verschachteteln Tabellen)
  • Code execution: Alle Web 2.0 Web-Seiten erhalten ihre Interaktivität durch dynamisches Laden (polling, XHTMLRequest –> “AJAX”) oder dynamisches Ändern des bereits dargestellten Inhalts. (Ändern des Document Object Models, “DOM”). Diese Dynamik wird durch die Web-Programmiersprache Javascript erreicht, die in HTML4 eingebettet ist oder zkünftig in HTML5 auch lokal nachgeladen werden kann. Google verwendet in Chrome die mit abstand schnellste Javascript Engine der Web browser

Prognosen. Die wesentlichen Auswirkungen werden sein:

  • Automagisches Cloud Computing: Nachdem Webseiten der Zukunft alle standardisiert interagieren können, kann Code auf dem Rechner ausgeführt werden, der beliebige Aktionen durchführt. Bis jetzt ist das Herunterladen eines Clients notwendig, der eine dezidierte Aufgabe erfüllt (z.B. analysieren von signalen aus dem Weltall zur Erfroschung extraterrestrischen Lebens, Seti@Home). In Zukunft wird es einen Klick in der Konfiguration benötigen um z.B. 20% der Rechnerleistung für Aktivitäten der Cloud zu widmen. Jeder Browser wird ein Steichen der Amazon S3, salesforce, Google oder Microsoft Cloud.
  • Sicherheit: ein Virus wird schädlich indem er auf die lokale Infrastruktur des Rechners zugreifen kann. Das ist im Browser zZ nur sehr eingeschränkt möglich (sandboxing-Prinzip), hat aber durch Umgehung des Standards im Internet Explorer (Active X) bereits zu einer Aufweichung geführt, die dem Browser Microsofts seinen schlechten ruf in puncto Virenanfälligkeit eingetragen hat. Indem diese Funktionalität (lokaler Zugriff auf den Rechner und Code-Ausführung durch Javascript) in den Standard Einzug hält, werden ganz neue Attacken und Bedrohungsszenarien auf die künftigen HTML5-AnwenderInnen und Andendungen zukommen. Die mögliche Lösung: wesentlich mehr Seiten verwenden https, da in diesem Fall durch das übertragenene SSL-Zertifikat der Originator eindeutig identifizierbar ist.