Der Blog tech.sumerum, mit Artikel aus den Kategorien:
gesture control
augmented reality
sensing
3D
tracking
maps
image processing
algorithms
Dies ist ein privater Blog, nur für den persönlichen, nicht gewerblichen Gebrauch bestimmt und Inhalt des Angebotes von
tech.sumerum.de.
maps
Google Street View, Polarlichter - Finnland Aurora Borealis
15.January 2015
"... a natural light display in the sky ..."
Bild: Google - Polarlichter in Finnland
Aurora Borealis, die Polarlichter Finnlands wurden in Googles StreetView integriert. Die Faszination des Naturschauspiels
kann ab sofort, fernab ab der Kälte und in Ruhe erkundet werden.
Google Street View, Himalaya - Bhutan ein kleines Land digital
24.October 2014
"... Thimpu, and the towns of Paro and Trongsa ..."
Bild: Google - View Paro
Das 63. Land in Google StreetView, das kleine Königreich Bhutan im Himalaya, ist verfügbar. So sind im digitalen Archiv
z.B einige ausgewählte Orte wie Thimpu oder Paro enthalten. Die Aufnahmen und das Google Fahrzeug haben die Menschen
in diesem Land sehr neugierig gemacht, erklärte der Google Manager Divon Lan dem Wall Street Journal.
Google Street View, im Gombe National Park Tansania, auf den Pfaden von Dr. Goodall
21.October 2014
"... chimpanzees in the wild ..."
Bild: Google - View of Lake Tanganyika at The Peak, Gombe National Park, Tanzania
Ein weiteres Highlight in der Reihe des Street View Trekkers steht bereit. In Kooperation mit dem Jane Goodall Institute
und dem Tanzania National Park sind beindruckende Bilder von Schimpansen und ihrem Habitat entstanden.
Google, The Cartographer - Rucksack voller Sensoren
04.September 2014
"... backpack equipped with Simultaneous Localization and Mapping (SLAM) technology ..."
Bild: Google - The Cartographer
Der Ausbau der Google Maps geht weiter, es folgt die Erweiterung, durch die Erfassung des Inneren von
Gebäuden.
Mit dem Cartographer, einem Rucksack ähnlich dem Trekker nur leichter und kleiner,
kann neues Material für die Indoornavigation erfasst werden. Für die Aufnahme wird das
Simultaneous Localization and Mapping - Verfahren (SLAM) genutzt. Hierbei wird eine Karte erstellt und
gleichzeitig die eigene Position bestimmt. Mithilfe eines Android Tablets kann der Träger den
Cartographer steuern und interessante Objekte in der Karte markieren.
Passende Beispiele sind z.B.
das
Deutsche Museum Flugwerft Schleißheim
oder die
39. Etage des San Francisco Marriott Marquis hotel .
Quellen:
Google Maps - Making of Maps: The cornerstones
- http://google-latlong.blogspot.de/2014/09/making-of-maps-cornerstones.html
sensing
MIT CSAIL, Bewegungstracking durch Funkfrequenzen
15.June 2014
"... track movement through a wall ..."
Bild: MIT NEWS, MITCSAIL - breath monitor
Raum- und Personenerkennung durch Reflexion von Funksignalen wie sie z.B. bei WiFi entstehen.
Ein Team des Computer Science and Artificial Intelligence Laboratory (CSAIL) am Massachusetts Institute
of Technology (MIT) ist es gelungen, durch Wände hinweg, Personen zu erkennen und dessen vitale
Daten wie Atmung und Herzfrequenz zu erfassen.
Ermöglicht wird dies durch die Erfassung der Reflexion von ausgestrahlten Funkwellen,
ähnlich wie bei einem Radar. Der entwickelte Prototyp kann bis zu fünf Personen oder die
Bewegung der Hände erkennen. Jedoch nicht unterscheiden zwischen Händen oder Beinen.
Bei ruhenden Personen wäre die Atmung und Herzfrequenz erfassbar. Der CSAIL Technical Report
MIT-CSAIL-TR-2014-008 vom 26.04.2014 (siehe Quellen) gibt hierzu die relevanten Informationen. Die Entwickler sehen
hier die Möglichkeit für ein "multi-user gesture-based interface".
Video: MITCSAIL, Breath and Heart Rate Monitoring Using Wireless Signal Reflections - http://youtu.be/3Atky2Jt_-4
Quellen:
MIT NEWS - Could wireless replace wearables?
- http://newsoffice.mit.edu/2014/could-wireless-replace-wearables
MIT-CSAIL-TR-2014-008 Report
- http://18.7.29.232/bitstream/handle/1721.1/86299/MIT-CSAIL-TR-2014-008.pdf?sequence=1
augmented reality
Metaio, Thermal Touch - alles wird zum Touchscreen
23.May 2014
"... a user interface that combines thermal imaging with augmented reality ..."
Bild: Metaio - Thermal Touch
Metaio aus München will jede Oberfläche, mittels Thermoscan, zum Touchscreen machen.
Hierbei wird Augmented Reality mit einem Thermoscanner verbunden um z.B. bei AR-Brillen die Eingabe
zu vereinfachen.
Das Projekt mit funktionierenden Prototypen, einem Tablet mit Infrarot- und RGB-Kamera, soll auf der
kommenden
"Augmented World Expo"
in Santa Clara präsentiert werden.
Video: Metaio, Thermal Touch - A New Augmented Reality Interface for Wearables - http://youtu.be/t1HmYNqp8NM
Quellen:
Metaio - The Augmented Blog, Metaio unveils thermal imaging R&D for future use in wearable augmented reality headsets
- http://augmentedblog.wordpress.com/
sensing
Vanhawks Valour, Carbon Fahrrad mit LED Anzeige und Ultraschall
13.May 2014
"... haptic feedback in the handlebar ..."
Bild: Vanhawks Valour
Das Vanhawks Valour ist ein Carbon Fahrrad Prototyp im minimalen Design àla Fixies oder Singlespeed.
Es überwacht den toten Winkel mit Ultraschallsensoren und informiert per LEDs über die Richtung
zur Navigation. Das Smartphone mit entsprechender App stellt die zentralen Funktionen bereit. Die
Kommunikation wird per Bluetooth realisiert, so dass keine Geräte am Lenker befestigt werden
müssen.
Die eigentliche Technik steckt demnach im Lenker des Rades, so soll z.B. durch ein haptisches Feedback
in den Griffen ein Alarm ausgelöst werden der ein Auto im toten Winkel anzeigt. Die integrierte
step-by-step Navigation, durch Richtungs-LEDs, ermöglicht wohl eine ablenkungsfreiere Fahrt, da
alle anderen Informationen im Smartphone verbleiben. Die Energie für die Radkomponenten soll durch
das Fahren bereitgestellt werden, so dass keine zusätzlichen Akkus gepflegt werden müssen.
Das Projekt sucht auf Kickstarter nach Unterstützern für die weiteren Entwicklungsschritte.
Bild: Vanhawks Valour
Video: Vanhawks Valour Kickstarter - http://youtu.be/XCDUzOEUQ30
Quellen:
Vanhawks -
http://www.vanhawks.com/
Vanhawks Valour | First ever connected carbon fibre bicycle -
https://www.kickstarter.com/projects/1931822269/vanhawks-valour-first-ever-connected-carbon-fibre
gesture control
Mälardalen University, Virtuelle Tastatur und Maus - Fingerpositionen durch zwei Griffe
10.May 2014
"... online and integrated in a virtual existence ..."
Bild: Mälardalen University - Virtual Keyboard
Eine portable und virtuelle Tastatur für Augmented Reality wird Wirklichkeit. Ein Forscherteam an der
Mälardalen University in Schweden hat ein Projekt veröffentlicht, dass eine portable virtuelle Tastatur
ermöglichen soll die z.B. im Blickfeld einer "Google Glass" erscheint.
Der erste Prototyp, bestehend aus
zwei Teilen, wird wie ein Armband wahlweise am Handgelenk oder über den Händen getragen. Durch Sensoren
soll die Position und die Bewegung der Finger und Hände festgestellt werden. Somit wäre es möglich
Tastatur sowie Maus zu ersetzen und weitere Funktionen zu entwickeln.
Das Projekt sucht nun nach weiteren Möglichkeiten der Finanzierung.
Video: Mälardalen University, Promotion video for the Virtual Keyboard - http://youtu.be/mDsNZbbgxUo
Quellen:
Mälardalen University, Lars Asplund: The virtual keyboard can soon be a reality - http://www.mdh.se/mdh-nyheter/det-virtuella-tangentbordet-kan-snart-bli-verklighet-1.58044
idw - The virtual keyboard can soon be a reality - https://idw-online.de/de/news585407
gesture control
Microsoft, Prototyp einer Tastatur - Type-Hover-Swipe in 96 Bytes
01.May 2014
"... a motion sensing keyboard ..."
Bild: Microsoft Research - Type-Hover-Swipe
Das Touchdisplay kommt mit seinen Funktionen wie pinch to zoom oder den Wischgesten auf die mechanische Tastatur
eines PCs. Microsoft Research hat den Prototyp einer erweiterten Tastatur mit Infrarotsensoren (IR-Sensoren)
vorgestellt. Hierbei handelt es sich um eine Matrix die sich über die Tastatur erstreckt und die Position von
Fingern oder Händen in drei Dimensionen erfasst. Sie soll die Benutzung von Funktionen ermöglichen die bisher
z.B. von Smartphones, "Kinect" oder "leap motion" bekannt sind.
Video: Type-Hover-Swipe in 96 Bytes: A Motion Sensing Mechanical Keyboard - http://youtu.be/Y3dUeGNIX4M
Quellen:
Microsoft Research, Stuart Taylor, Cem Keskin, Otmar Hilliges, Shahram Izadi, and John Helmes,
Type-Hover-Swipe in 96 Bytes: A Motion Sensing Mechanical Keyboard, - http://research.microsoft.com/en-us/projects/typehoverswipe/
image processing
Google, Street View and reCAPTCHA - Hausnummernerkennung
17.April 2014
"... via the use of a deep convolutional neural network ..."
Bild: Google - Street View numbers correctly identified by the algorithm
Für die Erkennung von verschiedenen Zeichen in unabhängigen Bildern hat Google ein neues Verfahren vorgestellt.
Hierbei geht es z.B. um Hausnummern aus Street View Aufnahmen oder die Identifizierung von Inhalten aus Büchern
und Zeitschriften mit dem Dienst reCAPTCHA.
Der verwendete Algorithmus orientiert sich dabei an neuronalen Netzwerken, speziell an Deep Convolutional Neural Networks.
Das entwickelte Verfahren soll die drei Schritte Lokalisierung, Segmentierung und Identifizierung, im Gegensatz zu anderen
Herangehensweisen, in einem Durchgang direkt am Bild erledigen. Nach Angaben von Google wird beim identifizieren und lesen
von Hausnummern eine Genauigkeit von mehr als 90% erreicht.
Weitere Details können dem paper entnommen werden.
"Multi-digit Number Recognition from Street View Imagery using Deep
Convolutional Neural Networks"
von Ian J. Goodfellow, Yaroslav Bulatov, Julian Ibarz, Sacha Arnoud, Vinay Shet.
Quellen:
Google Blog -
http://googleonlinesecurity.blogspot.de/2014/04/street-view-and-recaptcha-technology.html
Cornell University Library, Multi-digit Number Recognition from Street View Imagery using Deep Convolutional
Neural Networks, Street View and reCAPTCHA Teams, Google Inc - http://arxiv.org/abs/1312.6082
Google RECAPTCHA -
http://www.google.com/recaptcha/intro/index.html
image processing
NASA, 1.000 Projekte - Quellcode wird open source
10.April 2014
"... NASA Open Source Agreement ..."
Die National Aeronautics and Space Administration (NASA) will den Quellcode von mehr als 1000 Projekten
als Open Source bereitstellen. Neben den schon auf anderen Plattformen wie Sourceforge oder GitHub
bereitgestellten Projekten, soll nun eine eigene
zentrale Plattform
den Zugriff ermöglichen. Hierdurch
kann die Suche vereinfacht und ein leichter Zugang geschaffen werden. Auch in Zukunft ist vorgesehen
weitere Projekte direkt auf der eigenen Plattform zu veröffentlichen. Die Freigabe dient dem Technologieaustausch
und soll zur Weiterentwicklung ermuntern. Der Zugang zu den jeweiligen Projekten soll jedoch unterschiedlich
sein, so dass es nicht jedem möglich sein wird Zugriff auf jedes Projekt zu erlangen.
Quellen:
NASA -
http://ti.arc.nasa.gov/opensource/projects/
NASA -
http://ti.arc.nasa.gov/opensource/
3D
Bücherhallen Hamburg, 3D-Druck in der Bibliothek
07.April 2014
"... custom product design ..."
Bild: Bücherhallen Hamburg, Delta Tower
3D-Druck(er) in der Hamburger Zentralbibliothek. Im Lern- und Informationszentrum (LIZ) hat die Zentralbibliothek
den 3D-Drucker "Delta Tower" aufgestellt. Dieser nutzt das Schmelzschichtverfahren und kann Objekte bis 58 Zentimeter
Höhe drucken. Jeder mit gültiger Kundenkarte kann so seinen eigenen 3D-Entwurf kostenlos drucken lassen. Der Kunde
schickt hierfür seine stl-Datei per E-Mail an die Zentralbibliothek. Diese prüft dann die Druckbarkeit und nach etwa
einer Woche kann das fertige Objekt abgeholt werden.
Video: Bücherhallen Hamburg, Delta Tower - der neue 3D-Drucker der Bücherhallen Hamburg - http://youtu.be/s2KokNqvWQs
Quellen:
Bücherhallen Hamburg -
http://www.buecherhallen.de/3D-Druck/
Delta Tower -
http://deltatower.ch/
image processing
Facebook, Deepface eine Entwicklung zur Gesichtserkennung
18.March 2014
"... detect --> align --> represent --> classify ..."
Bild: Facebook, Deepface
Der Konzern Facebook entwickelt eine Software zur Gesichtserkennung mit dem Namen "Deepface".
Ziel des Projektes ist die biometrische, komplexe Struktur eines menschlichen Gesichts aus Fotos herzuleiten.
Aus der Bildkollektion soll dann ein 3D Abbild entstehen, welches eine Drehung des Gesichts ermöglicht.
So würde der Eindruck entstehen die Person hätte direkt in Kamera geblickt. Facebook gibt an mit dieser
Methode eine Erkennungsrate von 97% zu erhalten, bei einem dataset von 4 Millionen Bildern mit mehr als
4000 Identitäten.
Quellen:
Facebook -
https://www.facebook.com/publications/546316888800776/
image processing
CUBESTORMER 3, neuer Weltrekord bei Lösung des Rubik Cube
16.March 2014
"... robot has smashed the Guinness World Record for solving a Rubik's cube ..."
Bild: CUBESTORMER 3
Der Roboter CUBESTORMER 3 löste in nur 3,253 Sekunden einen Ribik's Cube (3x3x3) und brach damit den alten Rekord,
der ebenfalls von einem Roboter aufgestellt wurde. Das Zusammenspiel von Lego Mindstorms NXT, einem Samsung Galaxy S4,
vier gekoppelten ARM Cortex A15 und vier ARM Cortex A7 Prozessoren, ermöglichte die erfolgreiche Jagd nach einem
neuen Rekord.
Video: CUBESTORMER 3 Smashes Rubik's Cube Speed Record, ARMflix - http://youtu.be/X0pFZG7j5cE
Quellen:
Guinness World Records - http://www.guinnessworldrecords.com/records-6000/fastest-robot-to-solve-a-rubiks-cube/#
maps
Google Street View, Hawaii mit dem Trekker aufgenommen
07.March 2014
"... you can take a trip to the Aloha state ..."
Bild: Hawaii - Hapuna Beach
Es gibt wieder neues Material vom Street View Trekker Ausleih-Programm. Diesmal kommen die Daten aus Hawaii
vom Hawaii Visitors and Convention Bureau (HVCB). Besonders hervorzuheben sind die schönen
Strände
;-) aber auch die anderen Sehenswürdigkeiten, Pfade und Parks.
Bild: Hawaii - Hawaii Tropical Botanical Garden
Quellen:
Google Maps - http://google-latlong.blogspot.de/2014/03/aloha-from-google-street-view.html
Hawaii Visitors and Convention Bureau - http://www.gohawaii.com/
Hawaii Visitors and Convention Bureau - http://www.hvcb.org/
3D
Project Tango, Android Smartphone für die Abtastung der Umgebung
21.February 2014
"... a mobile device that shares our sense of space and movement ..."
Bild: Project Tango
Mit dem Project Tango stellt Google ein Android Smartphone vor, mit dem es möglich ist die Umgebung
in 3D zu erfassen. Noch befindet sich das Projekt im Entwicklungsstadium, doch erste Prototypen zeigen
schon wohin die Reise geht. Die Entwicklung wurde in der Forschungsabteilung Advanced Technology and Projects
(ATAP) vorangetrieben. Für Entwickler soll es eine erste sehr kleine Serie von diesem Gerät geben um Ideen für
Anwendungen generieren zu können. Das Gerät selbst hat ein fünf Zoll Display und verfügt über drei Kameras.
Bild: Project Tango
Video: Say hello to Project Tango!, Google ATAP - http://youtu.be/Qe10ExwzCqk
Quellen:
Project Tango - https://www.google.com/atap/projecttango/
3D
Avegant, Glyph ein Netzhautprojekter mit Headset
23.January 2014
"... best seat in the house ..."
Bild: Avegant - Glyph
Das Projekterheadset "Glyph" von Avegant, derzeit sehr erfolgreich auf
Kickstarter, möchte mit seiner
modifizierten Displaytechnologie überzeugen. Mit ihm soll es möglich sein Filme und Spiele im eigenen
portablen Kino zu geniessen.
Der Unterschied zu schon vorhanden ähnlichen Produkten liegt in der Art der Diplaytechnologie.
Hierbei wird das Bild nicht vor dem Auge aufgebaut sondern durch Projektoren, Mikrospiegel und Linsen
direkt auf die Netzhaut übertragen. Das Auge soll somit keine störenden Pixel mehr wahrnehmen und sehr
scharfe Abbildungen ermöglichen. Die Auflösung liegt derzeit bei 720p pro Auge mit einer wahrgenommenen
Bildfläche von etwa 80-Zoll. Über einen HDMI Anschluss kann so ziemlich alles angeschlossen werden was
diesen Standard unterstützt.
Die ersten funktionierenden Prototypen sollen ab 499 Dollar kosten.
Bild: Avegant - Glyph
Video: Avegant's Kickstarter Video, Avegant - http://youtu.be/Mqpiiajav14
Quellen:
Kickstarter - http://www.kickstarter.com/projects/avegantglyph/a-mobile-personal-theater-with-built-in-premium-au
Avegant, http://www.avegant.com/homepage/
sensing
Technischen Universität München (TUM), Fahrzeuge detektieren Fußgänger
21.January 2014
"... detection and ranging ..."
Bild: TUM, Ko-TAG - Kooperativen Sensorik
Ein neues Verfahren für Fahrerassistenzsysteme in Pkw´s, entwickelt an der Technischen Universität München (TUM),
soll die Existenz von Fußgängern und Radfahrern ermitteln können, vor allem wenn diese noch nicht sichtbar bzw.
verdeckt sind. Detektiert werden sie durch mitgeführte Transponder, die mitteilen können um welche Art von
Hindernis es sich handelt. Das jeweilige Fahrzeug sendet hierfür zuvor Signale aus, die Antworten der Transponder
werden anschließend Verarbeitet um entsprechend darauf reagieren zu können z.B mit Informationen im Display oder
gar einer Notbremsung.
Das Forschungsprojekt "Kooperative Transponder" mit Professor Erwin Biebl und Team, hat hierfür ein Verfahren
zur Abstandsmessung entwickelt um schnell und genau die Entfernung zu berechnen. Fußgänger und Radfahrer werden
z.B. mit Sendern ausgerüstet die eine aktive Kommunikation mit dem Fahrzeugsystem ermöglichen. Denn nur so ist
es möglich auch durch Hindernisse hinweg Personen und Gegenstände ausreichend zu erkennen.
Zukünftig sollen auch Mobiltelefone als mögliche Transponder in Betracht kommen, da diese sehr verbreitet sind.
Quellen:
IDW - http://idw-online.de/pages/de/news569823
Ko-FAS - http://ko-fas.de/
Fraunhofer IIS, http://www.iis.fraunhofer.de/de/bf/ln/referenzprojekte/kotag.html
3D
ETH Zurich, Smartphone mit 3D-Scanner App
14.December 2013
"... Transform your smartphone into a mobile 3D scanner ..."
Bild: ETH Zurich - Turning Mobile Phones into 3D Scanners
Ein Forscherteam der Computer Vision and Geometry Group der ETH Zurich, mit Petri Tanskanen, Kalin Kolev, Lorenz Meier,
Federico Camposeco, Olivier Saurer und Marc Pollefeys,
hat eine Software entwickelt die ein Smartphone oder Tablet zum 3D Scanner macht. Aktuell ist die Anpassung für Android
Smartphones umgesetzt (siehe Video weiter unten). Für die Aufnahmen wird keine weiteres Zubehör benötigt.
Bild: ETH Zurich - Turning Mobile Phones into 3D Scanners
Video: Computer Vision and Geometry Group, ETH Zurich - http://youtu.be/36PFT6SkYMI
Quellen:
ETH Zurich - http://cvg.ethz.ch/mobile/
ETH Zurich, ICCV 2013 Paper - http://cvg.ethz.ch/mobile/LiveMetric3DReconstructionICCV2013.pdf
ETH Zurich, Department of Computer Science - http://www.inf.ethz.ch/news-and-events/spotlights/mobile_3dscanner.html
gesture control
Microsoft Kinect für Windows v2 - Entwickler
23.November 2013
"... developers are participating in Kinect for Windows v2 Developer ..."
Microsoft versendet, ab sofort, die neue Kinect für Windows v2 mit SDK an Entwickler. Mit ihr sollen nicht nur
Spiele, wie mit der ersten Version der Kinect, sondern
der ganze Rechner gesteuert werden können, so die Vision. Microsoft will mit dem neuen Sensor die Möglichkeiten
erweitern
und somit grosse Industriezweige verbessern.
"The benefits will raise the bar and accelerate the development of NUI applications across multiple industries,
from retail and manufacturing to healthcare, education, communications, and more:"
Der reguläre Vertrieb soll dann im Sommer 2014 starten.
Quellen:
MSDN Blogs, Kinect for Windows Product Blog - http://blogs.msdn.com/b/kinectforwindows/archive/2013/11/22/thousands-of-developers-are-taking-part-in-kinect-for-windows-v2-developer-preview.aspx
sensing
MIT - M-Blocks, kleine magnetische Roboter in Form von Würfeln
08.October 2013
"... the robots are cubes with no external moving parts ..."
Bild: MIT M-Blocks, Photo M. Scott Brauer
Am massachusetts institute of technology (MIT) wurden kleine Roboter in Form von magnetischen Würfeln
entwickelt, die allein wenige Funktionen aufweisen jedoch in Zusammenarbeit mit vielen andern Würfeln
komplexe Strukturen bilden können.
Obwohl auf der Aussenseite keine beweglichen Teile vorhanden sind, können sich diese Würfel bewegen.
Im inneren wird eine Schwungscheibe angetrieben die bis zu 20.000 Umdrehung/min aufweist und durch
gezieltes stoppen die Würfel in Bewegung versetzt. Somit wird ein Rollen und Klettern ermöglicht.
Die integrierten Magnete an den Flächen und Kanten helfen den Blocks um aneinander oder an Metallflächen zu haften
und Rotationen auszuführen.
Bild: MIT M-Blocks, Photo M. Scott Brauer
Video: Small cubes that self-assemble, MIT - http://youtu.be/6aZbJS6LZbs
Quellen:
MIT-news - http://web.mit.edu/newsoffice/2013/simple-scheme-for-self-assembling-robots-1004.html
Distributed Robotics Laboratory - http://groups.csail.mit.edu/drl/wiki/index.php?title=Robot_Pebbles
3D
Occipital - Structure Sensor macht iPad zum 3D-Scanner
19.September 2013
"... magic of 3D depth sensing begins ..."
Bild: Occipital, Structure Sensor
Ein 3D Aufsatzsensor, der in Zusammenarbeit mit Prime Sense entwickelt wurde, soll das iPad zu einem
3D-Sanner machen. Der Hersteller Occipital will so mit dem Structure Sensor, ein Gerät das mit Infrarot LEDs,
Projektor und Kamera bestückt ist, die Umgebung aufnehmen. Die Verbindung zwischen Sensor und iPad wird durch
die Lightning-Schnittstelle realisiert.
Der Aufnahmebereich, laut Hersteller, liegt zwischen 40cm und 3,50m. Die Genauigkeit wird mit 1% zur gemessenen
Distanz angegeben, bei einer Auflösung von 640x480 - VGA. Etwa 100 Gramm können dann 3-4 Stunden, dank eigenem
Akku, zusätzlich getragen werden.
Vorerst wird nur das iPad der 4. Generation unterstützt, jedoch sollen weitere folgen.
Bild: Occipital, Structure Sensor
Video: Structure Sensor, Occipital - http://youtu.be/wGP4l93yzH8
Quellen:
Occipital - http://structure.io/press
maps
Google Street View, Galapagos-Inseln - Bilder vom mobilen Street View Trekker
13.September 2013
"... collections of the Galapagos wildlife ..."
Bild: Google Street View, Galapagos Inseln
Die Galapagos Inseln,
Weltnaturerbe der UNESCO, kann nun dank Street View auch Otto-Normal bestaunen.
Gleichzeitig träg dies auch einen weiteren Teil zur Erforschung von Land, Küste und Meer bei.
Gemeinsam mit der Charles Darwin Foundation und dem Galapagos National Parks Directorate sind hierdurch
viele Bilder aufgenommen wurden, die nun jeder betrachten kann.
Quellen:
Google Street View - https://www.google.com/maps/views/streetview/galapagos-islands/?gl=us
Google Maps - http://maps.google.com/maps/about/behind-the-scenes/streetview/treks/galapagos-islands/
maps
Google Street View, Dubai Burj Khalifa
25.June 2013
"... vertical city ..."
Bild: Google - Dubai Burj Khalifa
Das zur Zeit höchste Gebäude der Welt, das Burj Khalifa in Dubai mit 828m Höhe, wurde von Google durch ein
Android 15 Linsen Kamerasystemen in Steeetview verfügbar gemacht.
So ist es möglich mehrere Ebenen des Gebäudes durch 360 Grad Bilder zu betreten und einen aussergewöhnlichen
Blick auf Dubai zu verwerfen.
Quellen:
Google+ Blog - http://googleblog.blogspot.de/2013/06/experience-stunning-new-heights-with.html
maps
Google, USGS, NASA, TIME - wie die Erde einmal war
09.May 2013
"... it possible for you to go back in time ..."
Bild: Google - Dubai
Google hat in Zusammenarbeit mit dem U.S. Geological Survey (USGS), der NASA und der TIME Satellitenbilder
der Erde aus den letzten 25 Jahren zu animierten Bildern zusammengeführt
(Animated GIFs of Earth Over Time).
So können wir Veränderungen
wie das schmelzen von Gletschern oder das Wachstum von Dubai auf unserem Planeten besser wahrnehmen.
Vielleicht regen diese Bilder auch zum Nachdenken und verantwortungsvolleren Umgang mit unserem Planeten an...
Quellen:
Google+ Blog - http://googleblog.blogspot.de/2013/05/a-picture-of-earth-through-time.html?utm_source=feedly&utm_medium=feed&utm_campaign=Feed:+blogspot/MKuf+%28Official+Google+Blog%29
Time Timelapse - http://world.time.com/timelapse/
sensing
PrimeSense - ein Blick in die Zukunft
21.January 2013
"... 3D sensing right in your phone, in your tablet - in your life ..."
Bild: PrimeSense
Ein Blick in die Zukunft, wie sie Beispielhaft von Primesense gesehen wird. So könnte die Interaktion
mit Technik morgen aussehen.
Bild: PrimeSense
Video: PrimeSense
Quellen:
PrimeSense - http://www.primesense.com/news/our-blog/the-world-according-to-3d-sensing/
sensing
Tinké - ein iPhone Gesundheits-Gadget
18.December 2012
"... revolutionary way to check your fitness and wellness ..."
Bild: Tinké
Tinké, ein kleines Zusatzgerät für das iPhone. Mit ihm lassen sich Herz- und Atemfrequenz,
sowie der Sauerstoffgehalt im Blut messen. Das Gerät mist nicht kontinuierlich sondern nur
bei Benutzung, die erhobenen Daten werden durch eine App mit Nutzerkonto gespeichert und können so verglichen werden.
Darüberhinaus gibt es praktische Tipps um den Lebens-Index zu verbessern und eine
Sharing-Funktion erlaubt es den Nutzern die Werte auch mit anderen zu teilen.
Der Hersteller weisst ausdrücklich daraufhin das es sich hier nicht um ein medizinisches Produkt handelt
sondern es ein Beitrag zum Fitness-Check leistet.
Die iPhone App gibt es kostenlos, der Vertrieb wird durch den eigenen Shop organisiert.
Bild: Tinké
Video: Tinké
Quellen:
zensorium - http://www.zensorium.com/tinke/
sensing
Cam-Ball - Panoramafotos im Flug erzeugen
08.November 2012
"Panoramic photography creates fascinating images..."
Bild: jonaspfei, Panoramic Ball Camera
Panoramabilder durch einen einfachen Ballwurf erzeugen?
Dies wird durch zwei Projekte, zum einen von Jonas Pfeil mit seiner
Diplomarbeit "Throwable Camera Array for Capturing Spherical Panoramas" und zum anderen durch
das Projekt "Bounce Imaging" von Bounce Imaging - Francisco Aguilar möglich.
Beide setzen auf mehrere Kameras die in einem Ball untergebracht sind. Während sich der Ball bewegt werden
von allem Kameras Bilder aufgenommen die dann zu einem Panoramabild verrechnert werden.
Die Entwicklung von Bounce Imaging enthält noch weitere Sensoren wie Infrarot, ein Gyroskop
und ein Beschleunigungsmesser. Darüberhinaus sind noch weitere Sensoren denkbar wie z.B. für
Temperatur oder Rauch. Die Daten werden zu einem Smartphone oder Tablet übertragen und dort in ein
Panorama verarbeitet.
Einsatzgebiete gibt es viele aber vor allem in Gefahrensituationen können solche Lösungen
schnell einen Überblick verschaffen ohne das sich jemand direkt in Gefahr begeben muss.
Bild: jonaspfei, Panoramic Ball Camera
Video: jonaspfei - Throwable Panoramic Ball Camera
Bild: BounceImaging, Ball
Bild: BounceImaging, Panorama
Video: BounceImaging - BouncePreviewNew
Quellen:
jonaspfei, http://jonaspfeil.de/ballcamera
BounceImaging, http://bounceimaging.com/
maps
SLAM - Simultaneous Localization and Mapping
24.September 2012
"a 2D map is built in real-time"
Bild: CSAIL, Man Portable Mapping
Schnelle mobile Systeme zum Kartieren von z.B. Innenräumen, welche gleichzeitig markante spezifizierte Elemente
erkennen und die gesamten Daten an eine Datenstation weitergeben - in real time?
Diese Entwicklungen wurden vom TeamHectorDarmstadt der TU Darmstadt - Handheld Mapping System auf den weg gebracht.
Auch das Team von Maurice Fallon der Computer Science and Artificial Intelligence Laboratory (CSAIL) am Massachusetts
Institute of Technology (MIT) - Man Portable Mapping haben ein solches System entwickelt.
Beide Systeme sind mit verschiedensten Sensoren ausgestattet um alle Bewegungen einer tragenden Person auszugleichen,
die Umgebung aufzunehmen, spezielle oder wiederkehrende Elemente zu erkennen, wie sie z.B. bei einer 360 Grad Drehung
oder dem zurückkehren an einen gleichen Ort entstehen.
Diese Systeme sind besonders interessant für Orte an denen umgehend Informationen erzeugt werden müssen wie
sie z.B. für Rettungskräfte notwendig sind.
Video: CSAIL - Maurice Fallon, Man Portable Mapping
Bild: TeamHectorDarmstadt, handheld embedded mapping system
Video: TeamHectorDarmstadt - Odometry free LIDAR SLAM with a Embedded Handheld Mapping System
Quellen:
CSAIL - Maurice Fallon, http://people.csail.mit.edu/mfallon/?page_id=71
CSAIL, Spatially Extended KinectFusion, http://www.cs.nuim.ie/research/vision/data/rgbd2012/Whelan12rssw.pdf
TeamHectorDarmstadt, http://www.gkmm.tu-darmstadt.de/rescue/?q=node/141
Haftungsausschluss
Das Angebot enthält externe Links zu Webseiten Dritter, auf deren Inhalt kein Einfluss genommen werden kann.
Deshalb kann für fremde Inhalte auch keine Gewähr übernommen werden, verantwortlich sind stets die
Anbieter oder Betreiber. Zum Zeitpunkt der Verlinkung waren keine rechtswidrigen Inhalte erkennbar.
Bei bekannt werden von Rechtsverletzungen, wird der betreffende Link umgehend entfernt.
Datenschutz
Durch Ihren Zugriff werden auf dem Server für Zwecke der Datensicherheit vorübergehend Daten gespeichert,
die möglicherweise eine Identifizierung zulassen (z.B.: IP-Adresse, Datum, Uhrzeit und Name
der angeforderten Datei). Eine Auswertung, mit Ausnahme für statistische Zwecke in anonymisierter Form, erfolgt
nicht.