Del geografiske objektsøgninger samt eksporter geodata med Overpass Turbo

(Artikelserie Dit og mit kort, 236). Her er andet afsnit af hvordan du kan bruge Overpass Turbo til at lave geografiske informationssøgninger ind i OpenStreetMaps geodata (afsnit 1). Denne gang vil vi se på, hvordan du kan dele informationssøgninger med andre samt lave eksport af geodata i GeoJSON format.

Først ser vi på deling af søgninger og her bruger vi casen med drikkevandsposter kun fra Frederikssund Kommune (søgning kan ses her).

Søgning efter drikkevandsposter i Frederiksund Kommune
(Billede – Søgesyntaks vist i Overpass Turbo)

Det er en god ide før du deler en geografisk informationssøgning at skrive en kommentar i søgningen (vist øverst i venstre side af Overpass Turbo). Kommenataren skal forklare hvad det er søgningen går ud på. Derved kan dine modtagere bedre forstå konkret hvad der søges efter. Når du er klar til at dele, så gå op og klik på “Del” knappen.

Deling af søgning i Overpass Turbo
(Billede – Deling af søgning vist i Overpass Turbo)

Sæt hak i “inkludere kortets område” og “Udfør denne søgning lige så snart den er indlæst” – Dernæst kopier linket. Dette link vil nu sende dine modtagere direkte hen til området samt søgningen vil blive udført automatisk. Manglende hak i ““Udfør denne søgning lige så snart den er indlæst” – betyder at dine modtagere lige skal klikke på “Søg” knappen først. Deling af disse søgninger kan fx bruges hvis I er et par stykker i et lokal område til at undersøge et eller andet emne i stil med “Er det virkelig rigtig at der ikke er flere geografiske objekter af type XX i område NN?”.

Eksport af geodata via Overpass Turbo – Efter en søgning er blevet udført i Overpass Turbo kan du hente geodata – Her er der GeoJSON eller XML format at vælge imellem. GeoJSON er mest praktisk, hvis du skal lave mashups med dine eksporterede geodata. Du går op under “Eksporter” > “Geodata” og klik på fx “som geoJSON” – Nu hentes geodata ned på din computer.

Eksport af geodata i Overpass Turbo
(Billede – Eksport af geodata vist i Overpass Turbo)

Jeg har lagt en kopi af ovenstående drikkevandsposters geodata eksport i GeoJSON format ud på Dropbox (link her). Software programmer som QGIS kan håndtere GeoJSON format nemt. I billedet nedenfor har jeg importeret GeoJSON ind i QGIS og baggrundskortet er Stamens Toner (Toner er bygget på OpenStreetMaps geodata).

Drikkevandsposter indlæst i QGIS
(Billede – Drikkevandsposter indlæst i QGIS)

Sidste eksempel i denne omgang med informationssøgning i et bestemt område. Her har jeg sat militærområder i Nordkorea søgning op (link til søgning her)-

Militær områder
(Billede – Militære områder i Nordkorea)

Som altid søgningerne bliver ikke bedre end det indhold der er lagt ind i OpenStreetMap. Så hvis du ved der mangler noget, er det oplagt at du selv smider det ind.

Næste indlæg med Overpass Turbo vil berøre MapCSS og hvad det så kan bruges til.

Geodatastyrelsens frie geodata på vej til OpenStreetMap

(Artikelserie Dit og mit kort, 206). Der er så småt begyndt at blive skabt nye geografiske objekter i OpenStreetMap med kildeangivelse af geodatasæt fra Geodatastyrelsen. Vi kan med en Overpass Turbo API søgning, se hvilke objekter det drejer sig om indtil videre.

Du kan efterligne søgningen ved at klikke på dette her link, og så klik “Run” bagefter. Søgningen er en wildcard søgning på “$Geodatastyrelsen$” i “source” tag (se mine eksempler nedenfor). Vi benytter wildcard søgning, da Geodatastyrelsens geodatasæt kan have forskellige navne.

Efter du har klikket “Run” dukker et Danmarkskort op med de geografiske objekter (vektordata) som er blevet skabt I OpenStreetMap via indhold fra en af Geodatastyrelsen geodatasæt.

Du kan nu zoome ind og klikke på de forskellige objekter. Mit første eksempel er et hegn i Kolding, hvor Geodatastyrelsens luftfoto er blevet angivet som kilden til at skabe dette geografiske objekt. Dvs den frivillige har kunne set dette hegn på luftfoto.

Mit andet eksempel er en lille skov på Fyn, der hedder Helvede. Her er det så Geodatastyrelsens SNSOR (StedNavne- og StamOplysningsRegister ) database, der er blevet brugt til at sætte et stednavn på denne lille skov.

Hvis man af en eller anden grund vil bruge disse ovenstående geodata, så tilbyder Overpass Turbo, at de kan hentes i GeoJSON eller XML. Klik på “Export” og vælg.


(Billede Overpass Turbo – udsnit af GeoJSON eksportvindue)

Tagget “source” spiller en vigtig rolle i OpenStreetMap, da de forskellige frivillige, så kan få en ide om, hvordan et givent geografisk objekt er blevet skabt. Ved uenighed og kommunikation mellem de frivillige, så løser det lettere et problem at der er sat en kilde på med det samme. Bemærk her i samme åndedrag, at offentlige geodata ikke nødvendigvis, så altid er korrekte i forhold til hvad OpenStreetMap frivillige mener – læs mit indlæg om stednavne her.

Overpass Turbo værktøjet er et lille handy værktøj til at lave små API søgninger ind i OpenStreetMaps database efter bestemte geografiske objekter i et bestemt område. Til orientering, så er Overpass Turbo ca. 15 minutter bagud OpenStreetMaps database. Overpass Turbo giver selvfølgelig mest mening og ide, når man har fået kendskab til OpenStreetMaps XML model og tagging univers. Og det kendskab får man nemmest ved at have prøvet at kortlægge lidt i OpenStreetMap.

Beslægtet indlæg med brug af Overpass Turbo – Læs “Hvad neogeografi kan fortælle os om Rosa Luxemburg i Berlin anno 2013

Hvad neogeografi kan fortælle os om Rosa Luxemburg i Berlin anno 2013

I anledning af Kvindernes internationale kampdag tager vi en geografisk case med en af de helt store kvinder. Det er Rosa Luxemburg som jeg her vil knytte geografisk sammen med Berlin anno 2013 via OpenStreetMap.

Først skal vi have lavet et geografisk søgeargument som finder alt, hvor “*Luxemburg*” indgår, så vi får det hele med. Jeg benytter Overpass Turbo til at få lavet en API søgning. Du kan efterligne min søgning ved at klikke på linket her og dernæst klik på “Run” knappen oppe. I højre side er der et OpenStreetMap kort, som er det område af Berlin min Rosa Luxemburg API søgning leder efter geografiske objekter i.


(API søgning i Overpass Turbo)

Når “Run” er udført, så vil du se på dit OpenSteetMap kort. hvor søgeargumentet “*Luxemburg*” har fundet geografiske objekter i Berlin.

Zoom ind på Berlin kortet og klik på de forskellige objekter. Vi finder nogle skoler fx Rosa Luxemburg Grundschule, Rosa Luxemburg Gymnasium og Rosa Luxemburg Oberschule. Vi finder også et institut der beskæftiger sig med hende nemlig Rosa Luxemburg Stiftung.


(Billede – Rosa Luxemburg Grundschule i Potsdam)

Bevæger vi os ned mod Landwehrkanal ved Tiergarten, så finder vi mindesmærket Rosa Luxemburg Denkmal. Lige ved siden af finder vi en dobbeltbro, hvor den ene halvdel af broen i 2012 blev døbt officelt Rosa Luxemburg Steg. Siden 1987 har aktivister i Berlin kæmpet for, at denne gangbro fik dette navn. Det område ved Landwehrkanal er nemlig der, hvor liget af Rosa Luxemburg blev kastet i floden i 1919.


(Billede – Tiergarten ved Landwehrkanal )

Så har vi pladser og vejnavne i Berlin, Rosa Luxemburg Platz, Rosa Luxemburg Allee, Rosa Luxemburg Weg og Rosa Luxemburg Straße. Hvad der overraskede mig lidt var, at mange bydele i Berlin har deres egen Rosa Luxemburg Straße.

Nu handler den neogeografiske revolution ikke kun om at se på geodata, men også om at kunne dele disse og benytte dem i andre sammenhænge. Så oppe i Overpass Turbo værktøjet er der en “Export” knap. Her kan alle geografiske objekter vedr. min API søgning på “*Luxemburg*” hentes i XML eller geoJSON format, og du kan arbejde videre med disse geodata.

Min ovenstående Rosa Luxemburg case er et glimrende eksempel på, hvordan man hurtigt kan lave geodatamining og få et overblik. Nu er Berlin valgt pga det område er en slags neogeografisk bannerfører i OpenStreetMap sammenhænge. Det er utrolige mængder af geodata og informationer det tyske OpenStreetMap community har lagt ind i databasen om Berlin.

Denne geodatarevolution vi er vidner til i Berlin (de er slet færdige endnu dernede) de seneste par år, er så standarden for, hvordan resten af verdens frie geodata kan laves/gøres. Så kortlæg dit nærområde og deltag i verdens største geografiske crowdsourcing projekt. Vigtigst af alt – Geodata stilles frit tilrådighed.

Forsat god dag.

Nationale OpenStreetMap geodatasæt fra GeoFabrik

(Artikelserie Dit og mit kort, 61). I går skrev jeg hvordan man kunne hente hele OpenStreetMap database ned i en gigantisk stor XML fil. Nu er det alt i verden du får med ned ved dette download. Hvad nu hvis man kun er interesseret i alle geodata vedr. fx Danmark, Sverige og Norge? – Dette er der selvfølgelig også en løsning på. Tyske GeoFabrik tilbyder hver eneste dag download af verdens enkelte lande i OpenStreetMaps XML format. Danmarks XML filen fylder p.t. ca. 129 MB pakket. Udpakket er det ca. 1,8 GB.

GeoFabrik er også så venlige, at de tilbyder tillige download af verdens lande i ESRI Shapefile format. Så hvis du bedre kan lide at arbejde med dette format, så er det muligt at hente Danmark ned i ESRI Shapefile.

Jeg bruger selv filer fra GeoFabrik til den ugentlige OpenStreetMap Danmark statistik, hvor man kan se væksten i OpenStreetMap Danmark siden 28. december 2010.

De hemmelige fødselsdagsbørn

10. februar 2008 fyldte XML 10 år!. Og det er kommet for at blive. Hvis du er en af de over 70 millioner der har en blog, der understøtter RSS eller Atom, så er du allerede på XML vognen.

Fra microformats verden, så afholdte Tantek Çelik og Kevin Marks for 4 år siden et banebrydende foredrag “real world semantics” 11. februar 2004. Et par måneder før i 2003 havde Tantek Çelik, Matt Mullenweg, og Eric Meyer lavet XFN (det første microformats). De sidste 6 måneder har microformattet XFN samt også hCard virkelig været i vælten i forbindelse med OpenID og Social graph etc. (via Zeldman)

Lidt APML sjov til WordPress

Hvis vi tager udgangspunkt i at dine tags og kategorier repræsenterer det din blog handler om. Eller det kan også siges at det er de emner/kategorier der har din opmærksomhed/interesse. Opmærksomhedsdata kan udtrykkes i APML – (Attention Profiling Mark-up Language). APML er bare en XML fil der udtrykker en rangorden (værdi mellem 0 og 1) af hvad der har din opmærksomhed. Ved at lave opmærksomhedsdata i XML format gør det lettere at udveksle og bruges i andre sammenhænge (mashups).

Det er ikke kun til tags/kategorier dette kan benyttes, det kan også være hvilken musik lytter du mest til, websider du besøger mest osv.

Matthias Pfefferle har lavet en WordPress plugin der laver en AMPL fil udfra dine tags/kategorier.

Din kan se min APML profil for mine tags/kategorier her. Forslag til nyt TV-program : Vis mig din APML fil, og jeg skal sige hvem du er ;-)

<Concept key="DiSO" value="0.017543859649123" from="www.microformats.dk" updated="2008-01-05T05:51:17" />

Jo tættere eller lig med 1, jo mere kan det siges at være hovedemnerne for din blog. Samtidigt skal også ses på rangorden mellem tags/kategorierne for at få et billede af hvad der er dine hovedinteresser i din blog (ikke kun værdien mellem 0 og 1) . Okay, det hele er betinget af jeg ikke tag-spammer, før det kan siges at have en vis værdi. Jeg er sikker på, at i 2008 vil vi høre mere til APML og andre ting det vil blive brugt til.

Sæt RDF i SCRuF banken

Jeg har leget lidt rundt med SCRuF, som er

SCRuF means to scrape Microformats. Or more precisely Its a GRDDL “like” application, that Scrapes Microformats from XHTML via XSL transitions and saves the transitions in a Store as RDF and XML

Okay, sort snak årets sidste dag. Så vi tager et eksempel. Min blogroll her på microformats.dk benytter sig af microformattet XFN. XFN bruges til at beskrive relationerne til dem jeg har linket til i min blogroll. Med SCRuF Masher indsætter jeg linket til mit domæne og indsætter SCRuF XSL (Extensible Stylesheet Language) til FOAF (Friend of a Friend) format nedenfor.

SCRuF masher

FOAF er et RDF (XML) format som også kan bruges til at beskrive relationer og meget mere. Et klik på “Transform” og jeg har omdannet mine XFN til FOAF. Se resultat her.

SCRuF indsætter nu i deres SCRuF Scrape Store

min FOAF fil i en mappe (angivet ved domænenavn).

Min SCRuF Scrape Store

Klik mappen og dernæst på “More” og du kan fx se mine RDF data i SIOC RDF Browser, W3C RDF Validation Service eller bare i rå RDF format. Andet eksempel fra min side er alle mine links som er omformet til en RDF med Atom link syntaks.

Hvad kan dette så bruges til? SCRuF er eksempel på hvordan data (her microformats og links) kan trækkes ud fra almindelige XHTML sider og omformes til RDF (XML) på en let måde. Disse data kan så genbruges af andre, da RDF er simpelt og nemt at udveksle data i. Rent praktisk her og nu kan det nok ikke bruges til noget for de fleste webmastere, men det giver fingerpeg om hvordan det såkaldte semantiske web arbejder sig hen imod.

Lige et par noter om SCRuF ellers virker det ikke – Du skal benytte XHTML og samtidigt skal XHTML være valid (overholde syntaks). Og så skal du helst også benytte UTF-8 tegnsæt, da SCRuF transformerer til RDF i UTF-8 (for at undgå underlige tegn i output). Men, hvis du er seriøs webmaster arbejder du vel allerede med ovennævnte ting? – av av der stak jeg hovedet i løvens gab!

Opdatering (14:05) – Bemærk også at du ikke kan slette en mappe/fil du har lagt op på SCRuF. Der skal du sende en mail p.t. Holdet bag SCRuF arbejder på en OpenID løsning, så du kan betjene dig selv.

Godt nytår!

SCRuF fundet via microformatique

Exclusive interview with Brian Suda

I am very happy and proud to present an exclusive interview with Brian Suda. Brian is one of the veterans and still going strong member of the microformats community. Brian is co-author of the hCard specification. Brian is also the developer the X2V and GEO Microformats to XML tool. Some handy and cool tools you can use a lot for your microformats projects.

[1] Søren: Welcome Brian. The microformats community quite often use this phrase “Designed for humans first and machines second”. How would you explain this concept for web developers and ordinary web users,who never have heard about microformats?

Brian: I like to talk about microformats as “semantic sugar”. Everyone can understand that adding a little bit of sugar to your food you make it taste better. Adding microformats into your HTML makes it “taste” a little better too!

The “Designed for humans first and machines second” is attempting to point out that microformats always take into consideration the publisher first. This means that things should be as easy as possible for the person writing the HTML. There will be factors of 10 more people publishing than writing parsers, so why make it easy to parse at the expense of the publishers? The other big thing this stresses is that data should be for humans, it should be in plain view – you should see it every day through the window of your web browser. Data that is only for machines tends not to be visible to humans in a meaningful way, so we forget about it, we never update it and next thing you know it is completely wrong!

[2]Søren: You are one of the co-authors of hCard, where did the genius idea came from regarding reusing the old vCard specification for hCard?

Brian: I already knew that my target was going to be vCard, so for me i was simply creating a vCard in HTML rather than XML or plain-text. Basically, a good programmer is lazy. It is always a good idea never to re-invent the wheel when ever possible. Using vCard properties for class values was a logical choice, with applications already supporting it, you instantly get inter-operability.

[3] Søren: First time I did a hCard and then pointed the URN for that web page with my hCard to your “GEO Microformats to XML” tool and a KML file started up my Google Earth, I was very impressed and felt that this were one of the more practical things to do with microformats. Later on, I have discovered that when showing new people microformats in action (on a FireFox browser with Operator) – Examples with hCard and maps (Google Maps, Yahoo Maps, Google Earth etc.) is the first thing they think is smart and usefully for them self. Do you have the same experience when you are talking at conferences, that examples with maps draws peoples attentions to microformats?

Brian: Certainly maps are something everyone can relate too. In my presentations I try to show at least one practical and one “far out” demonstration of microformats. Usually, i demo how to take an HTML page, upcoming.org or any other with an hCalendar, then convert that to an iCalendar file.

With the newest versions of Outlook and Apple’s iCal, you can “subscribe” to events. This means that as the HTML pages are updated, your calendar application gets those updates too. This tends to really impress an audience, because we have all probably missed a rescheduled meeting or event due to a rescheduling. HCalendar really scratches an itch that people have every day.

I also like to demo some crazy far out stuff too, just to get people’s minds thinking. Twitter, for example, marks up all your messages as hAtom entries. Each of these entries has a publication date, so there is no reason why it isn’t possible to extract the data and convert it to XML or JSON and have it loads into a timeline or other software. Now we can begin to see twitter posts in relation to each others time distance rather than just as a list.

Timeline from  a twitter feed

[4] Søren: Speaking about the upcoming FireFox 3.0 (not talking about the version out now for testers) and the build in microformats detection feature – will this be the breaking point and the big step ahead for microformats? – so we maybe see a success for microformats like the one RSS/Atom have gone through?

Brian: I think having a microformats detection native to the browser will be a big benefit to adoption and awareness. RSS/Atom has exploded for lots of different reasons, but it has taken many, many years! Where I personally see microformats in the browser excelling, is on mobile devices. Imagine if the browser in your phone was microformats aware. Instead of trying to re-type an event using T9, it could be one-click, save to calendar, one-click, call this person, one-click, get directions to this place from where i am standing right now based on my lat/lon of my phone’s built in GPS unit.

If all things were equal between two websites, but one used microformats and the other didn’t, when on my phone i bet you know the one i’d pick!

For better or worse, the end-user doesn’t really care about microformats. If you look at the current Operator toolbar, it doesn’t mention the word “microformats” at all. It is all “action” based. Which i think is good. My parents don’t need to know what microformats are to be able to “save to address book”. The better a technology is, the less of it you see. To most people, FireFox 3 knowing that there are 3 events in a page will just be magic. To any good web developer,they will want to know “how do i get my pages to have those options appear” and will learn more about microformats.

My dream would be that microformats become so ubiquitous that you don´t need to announce that they are in your page, it is just expected. Much like making valid HTML, you shouldn’t be proud and announce to the world “My HTML validates”, because that should be a baseline. It is like telling the world “I brushed my teeth this morning”, so what – i hope you did. If we evangelize enough, microformats will just become part of the HTML you produce on a daily basis.

[5]Søren: I maintain a list over danish web sites which is using microformats (The list does not incl. “rel-tag” web sites). The list is very short. For me it seems like microformats is very unknown in Denmark at the moment. Do you think that microformats can have a some language barrier? I am thinking about ‘classes’ for example are all in english [ like class="street-address" i hCard etc.] So a danish, swedish or finish web developer might thinking what kind of benefits will I get from using english ‘class’ names in my markup? So will we end up with microformats in small countries/languages is only something a few hard core techies is doing?

Brian: Microformats are small re-usable pieces of information, so I´d hope there isn´t much to remember and the barrier to entry is low. HTML is already (for better or worse) in English, so you need to understand what a <p> and <strong> mean relative to Danish. This learning comes from information in your own language, but what you write in is ultimate English. This is why it is important for sites like microformats.dk, microform.at, microformats.biz and others to be localized so more people can learn about what class="street-address" means in their own language and culture, just like you needed to learn what <em> meant.

I don’t think this is a huge drawback for the interoperability. Everything is a trade-off so a unified language for describing things makes it easier to adopt globally so we all know we are talking about the same things. The people I feel sorry for are the British English speakers, it is their native language, but to them all the spelling is wrong!

[6] Søren: You have been an invited expert for the GRDDL working group at W3C. How does the folks at W3C looking at microformats in the picture of creating a more Semantic Web? I have seen that Tim Berners-Lee is quite positive about microformats – (like this twitter message from Tantek Çelik “Tim Berners-Lee just called the microformats wiki “a special holy place :) ”)

Brian: The W3C is a big organization, but all the people that i have met like microformats – both as an idea and a technology. Their main concern is that microformats can not solve everything, they only cover popular aspects such as People, Places, Events, Reviews and a few others. Whereas with W3C technologies, such as RDF a you can just about describe anything you want, but as with anything there are trade-offs.

Up until a few years ago, there were only two options, HTML and RDF. Two pretty far ends of the spectrum. HTML was for the browser and human eyes, whereas RDF was for machines (and can hurt human eyes if you look at it!).

In recent years we are filling in that spectrum between HTML and RDF. We have the more complex, but can describe anything markup in RDFa or eRDF, and the more lightweight microformats that are easier to implement but have limitations. Then there is POSH and GRDDL to also add and extract semantics. We now have more choices and can select the best tool for the best job on any given project.

I think, from the people i have talked too, that everyone agrees anything which gives more meaning to the web is a good thing. If it has enough structure, then it can be converted to other formats, RDF, RSS, Atom, etc. so that existing tools that people are familiar with can use, understand and act on the data. Microformats do this extraordinary well for very little costs, so it is very much a positive thing for the Semantic Web.

[7] Søren: At the moment you are quite interested in OpenID working together with microformats. Can you tell a little about what the idea is behind all this?

Brian: sure, OpenID is away to authenticate yourself and prove you are who you say you are. Microformats can work with this to further describe more about yourself. For instance, i have a profile page at claimid.com/briansuda with an hCard and i can say that is me, but you just have to take my word for it. ClaimID is also my OpenID provider, so i can also prove that page is me by passing an OpenID challenge response system (username and password). I should be the only one who can answer that username/password so you can trust that i control that page which i am claiming is me. It is a verified way to trust the microformatted data.

I also like using OpenID for lots of other stuff too. Friends of mine have blogs, but don´t want to list a full hCard to the general public. So for the world, you can get their hCard with only an FN and country-name, but for friends to authenticate themselves with OpenID they can see a full hCard with email, tel, adr, etc. So OpenID is a way to white-list friends to sensitive data.

OpenID is a really interesting open technology which compliments microformats well.

I thank Brian Suda for taking his time to answer some questions here at microformats.dk. I really liked the word “semantic sugar” Brian used above and will used from now on (in danish translation). If some danish readers out there are interested in microformats, we maybe could start a danish barcamp etc. Please feel free to contact me regarding microformats.

Some reading stuff from Brian Suda

Dansk startkit til Google Earth 4.2

Folkene fra Google Earth teamet er godt klar over at deres KML 2.2 (XML) speficikation skræmmer en hel del nybegyndere væk. Derfor lavede Google Earth teamet i juni et Google regneark der styrer layout og informationerne i de forskellige placemarks (infoboksene du klikker på i Google Earth 4.2.) Med denne metode via Google regneark skal man ikke bekymre sig om de lidt tekniske detaljer i KML 2.2. Udfyld nogle celler/felter, og regnearket danner en KML fil on the fly. Jeg har nu oversat dette Google regneark til dansk.

Lidt indledende øvelser

Jeg har tillige sat en supportside op hvor der er taget screendumps samt tilføjet ekstra information om, hvordan man fx finder “længde- og breddegrader”, hvordan man tillige kan få data fra regnearket over i Google Maps på sit eget domæne [Uden alt det tekniske med API nøgler] (skriv en gang udgiv to steder) og lidt om MIME types for Google Earth 4.2.

Regneark skabelonen er beregnet til små simple projekter med under 100 placemarks, hvor du har et billede, lidt tekst information og måske en video (video og flash indhold virker kun til Windows pt.). Men alt sammen kan du se i eksemplet som tager case i tre stk. placemarks om cykler og cyklister i København.

Hvem kan benytte dette regneark med fordel?

  • Folkeskolens lærere i geografi, historie og samfundshistorie til små projekter
  • Hvis du online deler/samarbejder i regnearket med andre – så skal du kun bruge 5 minutters intro på at forklare hvilke felter de andre skal udfylde – alt det andet har du taget dig af
  • alle andre med en ide og fantasi ;-)

placemarks cykling

Bugs og andet der ikke er helt klart forklaret i Google regnearket/support siden – skriv en kommentar. Eller hvis du laver et projekt med ovenstående regneark skriv også gerne en kommentar om dette.
Jeg vil senere lave nogle flere eksempler med Google Earth 4.2, hvor jeg har benyttet regnearket som layout og indholdsstyring. Stay tuned.

Optimus transformer værktøj

Matthias Pfefferle har leget lidt med Optimus værktøjet. Optimus er et onlineværktøj som trækker microformats ud af en webside og returner disse data i XML eller JSON format.

Matthias har skrevet et superfedt User Script til Operator 0.8 plugin til Firefox 2.0. Dette User Script gør, at når du browser rundt og befinder dig på en webside der fx indholder et af følgende microformats hCard, hCalendar, adr, hReview, hResume, tag, geo, XFN, xFolk, license eller hAtom-hFeed, så kan du med et klik trække disse data ud fra Optimus værktøjet og få dem vist i XML eller JSON.

Før skulle du bevæge dig ind til Optimus værktøjet og dernæst indsætte URL’en til den webside du vil hente data fra.

Operator 0.8 Userscript

Det ser også ud til at Optimus værktøjet har løst problemet med de danske æ,ø og å tegn :-) og kanon! – Prøv at kigge på dette eksempel med hReview fra MitKBH.