2010년 1월 30일 토요일

HULC

Drill-powered go cart

이럴수가.. 드릴을 이용해서 어린이용 장난감 자동차를 만들다니... ㄷㄷㄷ
참 재미있는 발상이네요. 아이들이 정말 좋아할것같습니다 ㅎㅎ

2010년 1월 27일 수요일

Cruden's Hexatech Racing Simulator IAAPA 2009

x간지... ㅠㅠ
5년뒤쯤에 오락실에서 이런 게임을 만나길 기대해봅니다.

댄싱 로봇

역시 이런걸 할 나라는 일본밖에 없습니다.
동기야 어떻건 결과만 보면 정말 존경스럽습니다. ㅠㅠ

Microsoft Photosynth™

Photosynth
동영상속에서만 보던 바로 그 무시무시한 사진 3d로 분석하여 붙이는....

4단계로 만드는 Photosynth by t9t9
1. 사진을 준비한다. 겹쳐서 찍은 사진이 많을 수록 좋다.
2. http://photosynth.net에 접속하여 로그인 (회원가입이 안되있다면 가입을 해야함)
3. "Create your Synth"를 클릭, "Create a Synth" 클릭
4. 사진을 불러들인 후, Synth 버튼을 클릭하면 완성


출처 : http://t9t9.com/354



Multi Touch Interface in Air (new)

역시 좀 더 직관적인 멀티터치가 되려면 In-Air 방식이어야겠지요?
youtube에서 in-air 인터페이스 검색해서 자료찾다가 국내에 한 사람이 만들어
올린 것을 발견!!! 우앗 왠지모를 자부심에 올림사람을 보니... t9t9님;;
안 그래도 시험기간에 심심하지 않게 자주놀러가던 블로그였는데 왠지모를 반가움이 찾아왔다;;
국내에도 이런 것들을 연구하시는 분들이 있어 왠지 뿌듯해집니다 ^ㅡ^

ION TWIN VIDEO with Charles Trippy and Alli Speed


Ion Audio에서 조금 색다른 포켓형 캠코더를 선보였습니다. Twin Video라는 제품으로 두개의 카메라 렌즈가 달려있는 제품입니다. 다양한 일상생활에서 일어날 수 있는 재미있는 장면을 두개의 카메라를 이용해 다양하게 연출할 수 있다고 하는데요. 두개의 카메라중 하나를 독립적으로 제어하여 사진을 서로 합성을 하여 다양한 효과도 만들 수 있다고 합니다. 아마 블로깅을 하는 분이나 다양하게 사진을 연출해 보고 싶은 분에게 괜찮을 듯한 아이템으로 보입니다. 이 제품은 금년 2분기에 출시될 예정으로 $249(약 28만원대)에 판매될 예정이라고 합니다.

하긴... 롤러코스터같은것을 탈때 앞의 영상과 내 얼굴 동시에 찍고 싶긴했었는데 이렇게 제품이 나와버렸네.
과연 카메라 해상도가 어느정도 받쳐줄지 왠지 생긴거봐서는 저렴한 ccd와 랜즈를 사용했을것만같은...ㅠ
하지만 아이디어는 정말 감동받았습니다. ㅋㅋ 친구들이랑 같이 동영상찍기는 이게 더 재밌을지도 ㅎㅎ

engadget korea라.... 오랜만에 재밌는 곳을 찾았군요.
제가 앞으로 자주 놀러가게 될것같습니다. :)

Reactable !!!

그저 감동스럽습니다. 나도 저렇게 졸작 발표회 하고 싶은 작은 소망이...... ㅠㅠ

2010년 1월 25일 월요일

Misa Digital Guitar Demo

Coooooooooooooooooooooooooooool~!!!!!!!

R/C plane from trash

Twitter user ChristineMMTTM points us to this video record of the process of building a remote control airplane from junk that could be scavenged from most household trash. Projects like this are a great way to learn problem solving, and important concepts of aerodynamics. Could this be done with a full-size class of regular education students?

출처 : Makemagazine

아.. 역시 Make magazine 에서 나온 자료였구나.. 어쩐지.. ㅎㅎㅎ
가끔 생각이 드는것은... 졸업작품으로 돈 잔뜩들인 작품들보다 이런것이 더 교수님들께 어필 가능할지 모른다는 생각이 든다.

2010년 1월 21일 목요일

Virtual Piano Keyboard

VMPK 0.3.0
뭔가 좋아보인다.. 좋아. 여기서 피아노음원을 찾아보자 ㅋ


Button Beats Vitual Piano

Button Beats 에서 만든 Flash piano..
신디사이저라 해야하나? ㅎ
피아노 음원만 제대로 된거 찾으면 피아노 효과는 쉽게 만들 수 있을것같은데..
음원 찾기가 만만치가 않네.. ㅡ,.ㅡ;;

2010년 1월 20일 수요일

21 step Japanese puzzle box

저는 왜 이런게 좋은걸까요? ㅎㅎㅎ
일본에서 만들어진 퍼즐 상자입니다.
이런 곳에 중요한 물건이나 문서를 넣어놓으면 다른 사람이 절대 못 꺼내겠죠? ㅎㅎㅎ
발로 부숴버리고 꺼내가면 안습이지만... ㅡ_ㅠ

밑에껀 뽀너스입니다 ㅎㅎ
이건 뭐... 궁극의 난이도 인듯.. ㅠ

SUPER CUBI 324-STEP JAPANESE PUZZLE BOX YOSEGI MUKU

2010년 1월 14일 목요일

Working Flash applications with multi-touch

http://img.nuigroup.com/flashtouch.jpg

David “Whitenoise” Wallin, one of the main developers at NUIgroup, wrote a couple of applications in Flash 9 using Actionscript 3 to collaborate with the multi-touch display. These Flash applications communicate with TUIO data (OSC implemented) sent by Touchlib (THE open source multi-touch library).

View FlickR Lightbox - This imports a set of photo’s from Flickr, it’s possible to move, rotate and scale the objects (see image above)

View Paint Application - A simple yet effective way to show the use of a brush by using your fingers

View Ripples Application - Generate ripple effects with your fingers (this application is very cpu intensive)

Download Source Code - Download the source code for all these three applications. Make sure you have Flash 9 and Actionscript 3 installed. It’s necessary to have Flash 8. Afterwards update it with the Flash 9 Alpha patch . This patch includes Actionscript 3.

Howto

To illustrate how to setup these applications with your multi-touch display, I’m writing down this little howto.

First of all you’ll need a working multi-touch display. You could also just test the applications with a remote control and a hacked webcam that detects infra red light.

First of all you need to have Flash 9 with Actionscrip 3 installed. Download here.

Second, you’ll need the Flash applications. Download here.

And finally, you need Touchlib. Download here.

These are the binaries (executables). But you can also compile Touchlib yourself. The source of Touchlib can be found here: http://code.google.com/p/touchlib/ In most cases you just want to go with the precompiled binairies, if you’re not an experienced software developer.

In the Touchlib package, you’ll find an executable called OSC.exe (this is the protocol that sends TUIO messages) to FLOsc. FLOsc is the application that receives the TUIO messages from OSC.exe and hands them through to Flash.

Run the file OSC.exe. A window with some settings pops up, leave them unchanged and hit the “ok”-button.

Next, 6 windows pop up with the output of your webcam. Press b, to remove the background, changing 3 of the 6 screens to black.

Test your multi-touch display to see if your blobs (lit up finger tips) are detected. You can finetune some settings with the slider.

Now you go to the FLOsc folder, inside the Flash package, which you downloaded. Run the file run.bat

A prompt window pops up telling you “attempting to start OSC / Flash Gateway server” OscServer created… TcpServer created…

So now you got OSC.exe and run.bat (FLOsc) running. OSC can now send messages to FLOsc and FLOsc can receive them. Now all we have to do is start the applications, so FLOsc can send the messages it receives from OSC, to Flash.

Open up, for example Paint.fla. When the file is loaded, press CTRL-Enter to publish it. The file will be executed at that moment. You’ll see some predefined brush strokes being rendered on the canvas. Wait untill they are finished. Now you should be able to brush paint on the canvas with your fingers.

Follow the last step as well to run the other 2 applications (ripples and photo)

Multi-Touch

Multi-Touch
1. MTmini
http://sethsandler.com/multitouch/mtmini/
http://nuigroup.com/forums/viewthread/1731/P30/

2. Community Core Vision (old tBeta) http://nuigroup.com/forums/viewthread/3305/
3. NUI blog http://theclevermonkey.blogspot.com/
4. NUITEQ http://www.multitouch.nl/
5. NUI group community
http://nuigroup.com/forums/
Win7 WM_TOUCH & TUIO http://nuigroup.com/forums/viewthread/4087/
http://nuigroup.com/forums/viewforum/27/P50/
Arduino http://nuigroup.com/forums/viewthread/3456/

6. NUI group community Earth http://nuigroup.com/forums/viewthread/5831/
7. 22" flat sensor screen http://nuigroup.com/forums/viewthread/6354/
8. LCD LLP http://nuigroup.com/forums/viewthread/3543/

- TUIO http://www.tuio.org/?software

- OSCpack http://www.audiomulch.com/~rossb/code/oscpack/
- OSC http://opensoundcontrol.org/
- flOSC http://benchun.net/flosc/ http://code.google.com/p/flosc/

- Reactable http://www.reactable.com/reactable/technology/
- Multi Touch Vista http://multitouchvista.codeplex.com/

- SDL(Simple DirectMediay Layer) http://www.libsdl.org/

Bill Buxton http://www.billbuxton.com/ http://www.billbuxton.com/multitouchOverview.html

- WPF Multi-Touch

Papervision3D

http://www.papervision3d.org/

우홋... papervision3D 홈페이지 들어가는 intro가 정말 최고인듯...;;
그저 감탄해버렸습니다. ㅋ

LEMUR : 멀티터치 디스플레이 인터페이스

LEMUR : 멀티터치 디스플레이 인터페이스


LEMUR는 멀티-터치 인식이 가능한 12인치 화면에 다양한 콘트롤러를 디자인 하여 사용할 수 있는 인터페이스로, '오디오 어플리케이션을 위한 인간-기계 인터페이스 (Human-Machine Interface for audio applications)'라는 모토를 내건 JazzMutant에서 만들었습니다.

OSC (Open Sound Control - 기계 간의 통신을 위한 일종의 언어체계)를 지원하며 이더넷 포트를 가지고 있어, 별도의 하드웨어 없이 OSC를 지원하는 소프트웨어(예를들면 Max, Reaktor, SuperCollider )와 쉽게 연동될 수 있습니다.

사실 전통적인 악기 처럼 손가락을 사용하도록 만들어진 인터페이스는 매우 흥미롭고 활용도가 높습니다. 그동안은
 iGesture NumPadWacom Tablet같은 기기를 사용해 보려는 노력은 있어 왔지만, 보다 목적에 맞게 제작된 LEMUR는 매우 반가운 소식이 아닐 수 없습니다.

iGesture NumPad는 손가락들의 제스춰를 이용하여 컴퓨터에 다양한 입력을 줄 수 있는 기기로, 그 입력을 Max에서 받을 수 있도록 하는외부오브젝트가 개발되어 있습니다. 그러나 가격이 비교적 높고 반응 속도가 매우 느리다는 단점이 있습니다.

Wacom Tablet의 경우는 사실 손가락이 아닌 펜을 사용하는 형태이긴 하지만, 손가락에 이 펜을 붙여 사용하기도 합니다 . Max를 위한 외부오브젝트도 준비가 되어 있습니다만, 역시 반응 속도가 느리고 손가락을 직접 사용할 수 없다는 단점이 있습니다.

LEMUR는 아직 판매가 되고 있지 않지만 아마도 높은 가격이 가장 큰 단점으로 작용하지 않을까 싶습니다. 그러나 그 홈페이지에 있는 비디오 클립들과 그 기능들을 찬찬히 살펴보면 꼭 사고 싶은 기기 1순위로 자리잡을 듯 합니다.


출처 : http://blog.naver.com/mittaeun?Redirect=Log&logNo=140010318424

Multi-Touch Technologies: ActionScript 3 & Flash

Back to about 1996, the web was relatively young and people were looking for a tool to help make website animated and vibrant. FutureSplash was invented, mentioned as a simple way to add vector-based animation and release it on sites through Macromedia’s Shockwave player. Macromedia itself soon acquired FutureSplash Animator and re-dubbed it Macromedia Flash. As the years went on, Flash evolved, its capabilities increased and spread across computers all over the world. In 2000, Macromedia added Actionscript 1.0 a way to edit and manipulate objects with a programming language rather than only using the timeline animation. In 2005, Actionscript 2.0 started to shift the idea of programming to an object oriented programming model rather than a straight forward syntax. In 2007, Adobe acquires the rights to Macromedia, including Flash which is released as Adobe Flash CS3. Adobe adds a fully revised version of the last version of Actionscript and labels this one 3.0 [1].

By now, Flash is one of the most powerful tools in a web designer’s arsenal, but it no longer stops at the web. Because of new coding platforms, namely Adobe Flex and Adobe AIR, developers can use Actionscript 3.0 to create cross-platform desktop applications. And now, Flash can be used to create multi-touch applications via communication with a computer vision and multi-touch sensing application, such as Touchlib, CCV and reacTIVision.

2.5.1 Opening the Lines of Communication

Before we start developing applications in Flash, it’s important to understand the flow of information from the multi-touch sensing applications. When you open the applications it’s all prepared to start transmitting the blob information for any application that can read it using Tangible UI Object protocol (TUIO). However, Flash doesn’t understand the blob data right away. Why is this? “TUIO is a very simple UDP-based protocol. So if you wish to create responsive applications using Adobe Flash Professional or ActionScript 3.0, you need to have a bridge that reads this UDP socket and converts it to a TCP connection.” [2]

So what can make a UDP to TCP connection? Flash OSC can. [3] It makes the bridge we need between Touchlib and Flash so that you can create multi-touch Flash applications.


After your Flash file’s properties are adjusted, there is one more piece to add to it. Find the Document Class property and type in app.demo.MyTouchApp.MyFirstApp this is the Flash file’s connection to the MyFirstApp.as file.

There’s only one last thing to do, right now the Flash file is empty, and the way TUIO works, there needs to be something on the stage for it to recognize that a user is touching the screen. All we need to do now is put a Shape over the stage. So use the Rectangle Tool and cover the entire stage area. And set your color, in Flash CS3, you can even chance the alpha to be fully transparent. TUIO will still be able to recognize the shape and react to it.

Now it’s time to run a test movie. In the Control drop down.

This is to verify that the Flash file and the Actionscript file are in sync. So long as you don’t get any errors, you should see an empty Flash movie and the output panel will pop up and read “MyFirstApp Loaded”.



[1] Adobe Flash, Wikipedia entry. http://en.wikipedia.org/wiki/Adobe_Flash
[2] “Flash for surface computing” by Manvesh Vyas
[3] flosc: Flash Open Sound Control http://www.benchun.net/flosc/
[4] Migrating from ActionScript 2.0 to ActionScript 3.0: Key concepts and changes by Dan Carr
[5] AS3: Dictionary Object by Grant Skinner


pymt demo reel

pymt demo reel from Thomas Hansen on Vimeo.

A video showcasing various demo apps written with our python multi-touch framework pymt.

The multi-touch display being used is from the University of Iowa built by Thomas Hansen working under Juan Pablo Hourcade, PhD.

links:

pymt.txzone.net
pymt.googlecode.com
cs.uiowa.edu/~hourcade
cs.uiowa.edu/~tehansen


Multi Touch @ University of Iowa from Thomas Hansen on Vimeo.

A video of the multi-touch displays we are building at the University of Iowa. Some early stages of pymt (python multi-touch framework) development are shown in the apps here. Alsos showcases some flash apps from the nuigroup community (nuigroup.com) towards the end.

Tesla coils on instructables

Tesla coils on instructables

오.... 신기 신기
예전 커맨드엔 쿤커 게임할때 적들을 녹여버렸던 그 강력한 무기가 아니던가.
이 테슬라 코일의 활용도는 아직 잘 모르겠지만 만들면 참... -_-;;
졸업작품 시연할때 사람들 겁먹겠구나.... ㅎㅎㅎ
loading...
i

2010년 1월 8일 금요일

CES: Battling AR helicopter controlled by iPhone

우홋!! 헬리콥터와 증강현실을 이용한 게임이라니...
뭔가 매우 흥미롭다 ㅎㅎ
게임 화면의 퀄리티는 살짝 떨어지기는하지만 발상자체는 정말 대단하다.
증강현실 기술은 사실 90년대 후반부터 연구가 되어온 꽤나 오래된 technology이다.
그동안 많은 연구가 있었기에 2010년 현재 이제 슬슬 대중화가 되려한다.
2010년 트랜드 키워드 top 10에 들어간 증강현실 아니던가.

앞으로 AR helicopter 뿐만 아닌
다른 더욱더 흥미로운 증강현실을 이용한 기술들이 많이 생겨날 것을 기대해본다.

Microsoft at 2010 International Consumer Electronics Show (CES): Video Gallery

2010년 1월 7일 목요일

Lily Allen - Fuck You

우연히 알게된 Lily Allen의 노래 F*ck you...
처음에 아무생각없이 듣다가 '아.. 멜로디 좋네..' 라 생각했지만
노래 제목하며 가사 내용이... -_-ㅋ

암튼 블로그에 올린 이유는 단 하나!!
도대체 어떤 프로그램으로 저런 동영상 편집을 했는지 너무 궁금하다는 것!!!
신기하지 않나요? 저런효과!? 만일 쉽다면 저도 당장 해보고 싶네요 ㅎㅎㅎ

Gyrowheel by Gyrobike interbike 2009

NUDE IT app for the iPhone

아 대박.... ㅋ
찍은 영상 위에 다른 사람 목을 겹치는 것이지만 정말 발상하나 대단한듯하다.
하지만 사용시 매우 주의해야한다 -_-;;

2010년 1월 6일 수요일

CPU 벤치마크 비교 사이트 소개 (CPU BENCHMARKS)

COMPARISON OF MOBILE PROCESSORS (CPU BENCHMARKS)

This table is sorted by the approximate speed of the (laptop) CPU. It contains
average benchmark values of some internal and external reviews. Furthermore,
the list can be sorted and filtered by the user.

More detaillied informations on the different processor series can be found in
our comparison of mobile processors.

Note, that there are also some desktop processors in the list (because some
laptops are equiped with desktop CPUs and for comparison).

http://www.notebookcheck.net/Mobile-Processors-Benchmarklist.2436.0.html

현재 내가 쓰고 있는 Intel Core 2 Quad (Desktop) Q6600 은 23위구나.. 아직은 쓸만하군 ㅎㅎㅎ

2010년 1월 5일 화요일

근육 움직임을 이용한 컨트롤러

실제로 마이크로소프트는 프로젝트 나탈 이후 차세대 컨트롤러 방식으로 근전도를 고려하고 있는 것으로 보인다. 최근 리듬액션 게임 ‘기타히어로’를 가지고 플레이하는 모습을 담은 동영상을 유튜브에 공개한 것.

 

해당 동영상에는 버튼을 누르는 대신 손가락을 구부리고 다른 한손으로 기타를 치는 듯한 시늉을 하는 것 만으로 눈길을 끈다. 팔 근육에 부착한 센서가 근육의 움직임을 전기신호로 변환해 X박스360에 전송하는 방식이라는 설명이 곁들여졌다.

 

X박스360에 적용한 근전도 컨트롤러 기술은 워싱턴대학, 토론토대학과 공동으로 개발했다고 마이크로소프트는 밝혔다.

이제는 근육움직임도 컨트롤러로 쓸수있게 됐구나 ㅠㅠ

Double clutch transmission model

[Alan] did an extraordinary job building a computer controlled model gearbox. His project from several years back is based on a dual-clutch Direct Shift Gearbox that was developed for VW and Audi vehicles. His design uses a gear head motor to provide the locomotion to this transmission. Shifting is computer controlled through serial cable, with servo motors providing the physical motion to change gears. Seeing all these moving parts in the clip after the break might make you a bit dizzy.

This is some extreme model building. It reminds us of the guy who built that aluminum aircraft model that was all over the Internets in December.


오... 뭔가 신기하다 ㅋ
기계쪽으로는 전혀 지식이 없으니 그저 신기할뿐... +_+

2010년 1월 4일 월요일

pyMT: 멀티터치 어플리케이션 개발을 위한 파이썬 모듈

다양한 관련 어플리케이션을 함께 제공해주고 있는 파이썬 모듈. 아래는 그 주소와 관련 어플리케이션 동영상

http://pymt.txzone.net/

출처 : http://ymkim.textcube.com/

IR LED 와 카메라로 물체를 인식하려 할 때 팁

IR LED 를 항상 켜두지 말고, 타이머나 마이컴 써서 일정시간만 키고 끄고를 반복하면 결과적으로 contrast 가 증가해서 물체를 더 잘 찾을 수 있다고 합니다. 그 이유는 짧은 시간 켜진 LED 가 더 밝게 빛을 내기 때문이고요.

빠른 멀티터치 어플리케이션 개발을 위한 TUIO

기존 개발되어있는 멀티터치 어플리케이션을 활용한 빠른 프로토타이핑에 대해 서베이 한 내용 정리합니다.

TUIO 프로토콜이란?
Tangible User Interface Object 프로토콜. 다양한 멀티터치 tracker 하드웨어와 어플리케이션들 사이의 통신 규약으로 tracking 된 정보를 abstraction 하게 바꿈으로써 다양한 언어와 환경에서 쓰일 수 있도록 규정하고 있습니다. 새로운 tracking 하드웨어를 개발할 때, TUIO 프로토콜을 따르게 되면 쉽게 기존 어플리케이션에 적용할 수 있습니다. (관련 소프트웨어들 링크)

TUIO 시뮬레이터
Java based standard TUIO Simulator application (platform independent)

TUIO  를 지원하고 프로세싱, 파이썬에서 동작하는 라이브러리들
  • Python: PyMT multi-touch package with TUIO input
  • Python: pyTUIO python library (by Jannis Leidel)
  • Processing: tuioZones gesture/widget API
  • 클라이언트 개발 레퍼런스: TUIO_Processing.zip (platform independent)
  • Touchlib: the initial NUI library for multi-touch surfaces based on FTIR and DI

IBM Commercials

IBM 광고들... 예전에 Apple 광고들도 참 재미있게 봤었는데,
미국에서는 광고에 이렇게 스토리를 담아서 하나보다 ㅎㅎ

Speed Pass Hacked

역시 RFID는 해킹하기 쉬운것일까..;;
스쳐지나가기만해도 정보를 빼올수있으니... 하긴 뭐 RFID의 목적이 "스쳐지나가기만해도 결재된다."이니
이런 해킹방법은 충분히 가능하다. 역시 보안이 더욱더 중요해지는 시대.

RFID emulator


[Alexander] built an RFID emulator. It uses a wire coil (not pictured here) and an ATmega8 to represent any tag that is EM4001 compliant. This iteration requires connection to a computer to send the tag ID information to the microcontroller. In the video after the break it looks like he’s using a DIY RFID reader to test this. If the two were combined, cutting out the need for a computer, he would have an RFID spooferon his hands.

Philips OLED Lighting

참고 : http://link.brightcove.com/services/player/bcpid1875256036?bctid=20915830001
lumiblade

미래의 기술이라고 해서 GE나 여타 기업에서 OLED로 조명을 만드려는 시도는 있었으나, 제일 처음 나오게 된 곳이 바로 phillips!

형광등은 대부분의 가정에서 사용하고 있는 조명이다. 그러나 최근 형광등에는 수은(HG)이 사용되어, 깨지게 되면 환경오염문제를 야기하는 문제가 제기되고 있는 상황이다. 위와 같은 문제 해결방법으로 제시 된 것이 LED와 OLED 조명이다.
현재 상용화 된 LED 조명의 경우에는 광원효율도 형광등과 비슷하거나 우수하며 사용시간도 10만 시간 정도로 길다. 그러나 아직까지 가격이 비싸고 제품에 뜨거운 열이 발생한다는 단점이 있다.
이에 반해 아직 상용화 되진 않았지만 LED와 함께 차세대 조명으로 주목받고 있는 OLED는 광원효율이 50 정도로 LED의 절반 수준이다. 사용시간은 아직 기술 개발중이다보니 2만 시간 정도로 짧은 편이다. 단, LED에 비해 단가가 저렴하며 열 문제도 발생하지 않는다는 장점이 있다. 여기에 소재 자체가 유연하기 때문에 다양한 디자인이 가능하다.

정보출처: 지디넷코리아


또한 OLED 조명의 가장 큰 특징은 면광원이라는 점이다. 면광원이란 점광원에 대비되는 말로 표면이 균일하게 빛나는 광원을 말한다. 점광원인 LED에 비해 비교적 넓게 빛을 발산할 수 있으며 광원효율도 좋은 편이다. 또 소재의 특성 상 다양한 컬러를 낼 수 있다는 장점도 있다.

천장에 거는 형태로 나온 조명은 너무나도 매끄럽고 아름다워 보인다. 전력소모도 적고 가볍고, 또 동작감지도 가능하다!
인테리어에도 널리 쓰일 것 같다. 특히 OLED wall은 지나가는 행인의 발목을 잡을 것으로 보인다.

필립스 OLED
자세한 사항은 필립스 홈페이지를 참조하세요.


출처 : http://janfullmoon.wordpress.com/page/9/

Crayola 3D Outdoor

Crayola 3D Outdoor는 밖에서 그릴 수 있는 chalk와 같은 개념인데, 아이들이 흔히 사용하는 크레파스와는 다르다! 다음의 영상은 Crayola 3D Outdoor에 대한 광고이다.

3D로 볼 수 있어, 아이들의 상상력을 자극할 수도 있고. 아무데나 그릴 수 있고. 또 물에도 잘 씻긴다. 고로 길가를 마구 더럽게 할 염려는 없다는 뜻이다.
아이들의 creativity를 키우기에는 그림 그리기 만큼 효과적인 것이 없다고 들었다. Crayola 3D Outdoor가 아이들의 상상력을 무한 자극할 것 같다.

과거 벽지에 그림을 그리다가 혼났던 기억에 갑자기 울적해졌다. 내 자식은 혼내지 않아도 되겠다!
밖에 나가서 그리라고 하면 되니깐 ~

Crayola 3D Outdoor의 홈페이지 carylola.com 이 제품 외에도 아이들의 그림그리기를 돕는 다양한 제품들을 판매하고 있다.


출처 : http://janfullmoon.wordpress.com/

오늘 김보름씨의 블로그에서 너무 많이 퍼오는 것같아 미안해지는군요 아하하;;

GE envisions flexible, thin OLED lighting applications

GE에서도 OLED로 더욱 다양한 상품을 만들어낼 것으로 보입니다.
일단은 Light나 기존에 있는 LCD를 대체하고 있는 정도에서 그치고 있지만 말입니다. 이러한 것들은 OLED로 만들 수 있는 극히 일부분에 해당되는 것들이지요.
OLED가 차세대 종이가 될지도 모르겠습니다. Philips, GE, UDC, CDT 등등의 기업들이 OLED materials로 만든 프린터를 연구 중이기 때문입니다.

수업시간에 “차세대 기기”에 대한 발표에서도 등장했습니다만,
일명 “flexible”로요.
OLED의 사용의 예
- 평평하지 않은 굴절된 OLED displays
- 입을 수 있는 OLEDs (예. youtube 동영상에 소개된 소방관의 safety gear)
- 창문과 같이 투명한 곳에 접해진 OLEDs
- 차 방풍유리 OLEDs
- 새로운 디자인이 가능한 Light
일단 여기까지가 현재까지 상상된 바이지만, 더 많은 것들을 생각해낼 수 있겠습니다.

다음의 동영상에서는 좀더 구체화된 OLED로 safety gear, illuminated stairs, walls and signs를 선보이고 있습니다.

OLED가 아직은 단가가 비싸요. 그럼에도 불구하고, 선호되는 이유
1. LCD displays와 달리 색 변환 필터가 필요없다.
2. 훨씬 효율적이다.
3. 만들기 간편하다.
4. 얇다!
5. 양질의 영상 제공 (선명하고 밝은 색감)
6. 빠른 반응 Philips OLED 동영상 참조
OLED가 Light로 선호되는 이유는 얇고, 효율적이며, 유해물질을 담고 있지 않아서라고 하네요. 그 외에도 OLED에 대한 자세한 정보를 원하신다면 OLED-info.com에 가보심이 좋을 듯 합니다. 일목요연하게 잘 정리해주셨네요.


출처 : http://janfullmoon.wordpress.com/

HP DreamScreen

HP에서 PC와 연동되는 Screen을 선보였다. HP에서 선보인 dream screen은 home network를 이용한 유,무선으로 PC와 콘텐츠를 공유하거나 인터넷을 사용할 수 있다.

다음의 동영상을 보며 그 특징을 파악해보자.

1. wireless
2. real time update – facebook
3. 2GB memory
4. radio, music and video
5. alarm clock, calendar, weather
6. Touch control pad/ REMOTE control

그러나 오로지 MS만 지원하고 있다.

출처 : http://janfullmoon.wordpress.com/

3D display가 가능한 Multi-screen

Birmingham에 있는 Alabama대학(UAB)에서 3D display가 가능한 Multi-screen을 개발했다.

이로 이해 의사는 수술실 밖에서 수술 절차를 연습할 수 있고, 엔지니어는 건설 전 구조물들에 대한 테스트를 할 것으로 기대하고 있다.

이 새로운 기술을 VisCube-SXTM이라 부른다.

다음의 동영상을 보시면 알 수 있듯이, 가상현실을 실제로 옮기는 것이 굉장히 발달하고 있다는 것을 느낄 수 있다.

출처 : http://janfullmoon.wordpress.com/

동작인식(Motion Sensing or Motion Control)

The Art of Motion Control: Beyond the Hype

[E3 2009] I don't think that anyone had envisioned a post-E3 motion controller war, but that's what's happening in the forums and elsewhere right now. After the cool on-stage demos from Microsoft and Sony, gamers are split on what's "better", Sony's Motion Controller magic wand or Microsoft's full body project Natal. Our first take was that Project Natal was "better, but let's try to go beyond the hype to review how each technology works, how it could be used and which might ultimately win.

The Nintendo Approach

Let's establish some facts with the precursor: the Wiimote. Wiimote is a two sensor system made of one 3-axis rotation sensor and one optical (IR) sensor located in the pointer lens that tracks where on the screen the Wiimote is pointing at, relative to the sensor bar that comes with the console. An additional Nunchuck that also contains a motion sensor can be connected by a cable to the Wiimote. The recently introduced Wii Motion Plus is an add-on to the Wiimote that contains an angular rate sensor that can help differentiate between "twisting" and linear (movement) motion, thus making the overall motion sensing and interpretation more accurate.

Note that all these sensors only know what's happening (rotation, acceleration) relative to their own position. They are the center of their small universe. Because of that, every Wii game is using some sort of context to "guess" how to interpret the data. They often need a "start position" that will tell them what the point of origin is (archery or golf are good examples) or games like Tennis sense simple swings and mostly adapt themselves, depending on the player's position on screen. It's robust because there are no external factor that can interfere and it's arguably an efficient way to tackle the problem.

The Sony Approach

The Sony Motion Controller also use a motion sensor but it is augmented with visual information fed by a camera that can see a tracker (the glowy end of the remote). The presence of the motion sensor in Sony's product is significant because that's what propelled the visual motion tracking from "relatively bad" to "really cool". Why? Because optical (color) tracking alone was simply not good enough. But when combined with a motion sensor, it actually surpasses the Wii Motion Plus.

Thanks to the internal sensor, the Sony Motion Controller knows exactly what orientation/acceleration it currently has but it also knows exactly where it is in space and what kind of motion the controller is really doing in the real world. Unlike the Nintendo solution, Sony has much less "guess work" to do because it can "see" what's going on, although we think that games will still have to make some assumption about the current activity.

Optical tracking is not without challenge. Some external factors such as strong lights or sensor occluders might be problematic, but overall, Sony has done a good job of demonstrating the capability of their concept. We will know for sure when this will be an actual product but Sony's motion sensing solution is theoretically superior to Nintendo's. The controller itself will have buttons, so it is something that players should be accustomed to.

The Microsoft Approach

In short, Microsoft senses more: color, depth and voice. From a high-level, takes a visual approach to the problem, but the additional depth perception helps Microsoft overcome the barrier onto which Sony's EyeToy color-based approach crashed. That makes it less prone to color interference, except for occluders (too much junk in your place) and even then, a simple subtract operation can probably wipe out the static object (including you, if you're a couch potato). Anyhow, by using a virtual skeleton of the player (created once, then stored), Natal is capable of figuring out the body's motion, including its position in space. Microsoft's Natal greatest strength is that it can scan full body motions, something that neither Sony or Nintendo are capable of doing with their motion sensing solutions. Natal should, in theory, be much better for a boxing/fighting game or for the next Dance Dance Revolution type of products. It could also teach you to swing perfectly by comparing your skeletal motion with Tiger Wood's...

It is however far from being a product and while we think that it mostly works, we wonder how much setup is involved. The video footage that shows how Natal works in the living room is a concept, Microsoft warns, and while we hope that it will be as good in reality, we are cautiously optimistic.

Theoretically, with Natal you could also hold a rolled-up magazine and use it as a "sword" - no accessory needed. In its promotional video, Microsoft hinted that you could use any objects with Natal and it depends entirely on the application. We have heard that Microsoft has already approached game developers, and that so far, it is "very usable".

Conclusion

We thought that Sony and Microsoft would have come up with something to counter the Wiimote years ago, but "late" is be better than "never". Both companies have realized that non-hardcore gamers represent their future growth - that's what Nintendo itself said too- and if they want to cash on this new manna, they have to have motion-based games that seem so popular.

On the paper, Microsoft's solution looks to be the most flexible one, but as always the content (and pricing) will dictate its success. In our view, the lack of button is a problem (do you believe in gestures for everything?) that is easy to solve with a cheap, small, wireless controller. But, because it is so different (superior?), developers might take a wait-and-see approach before creating games that cannot be ported to PS3 and Wii even if we expect an initial rush to be bundled with the hardware when it launches.

Sony's solution is factually better than Nintendo's and uses relatively known and proven concepts. It looks close enough to be a product, so we don't expect bad surprises at this point. Sony's Motion Controller might not be as "cool" as Microsoft's Natal, but it might be enough to get new gamers on-board, and that's what counts in the end. We think that because it is closer to Nintendo's solution, game developer might port their Nintendo titles to the PS3 easily.

Nintendo seems to be the "loser" of this story, but the low price of the Wii will protect them in the short term, and they have another year before competitors have real products. Conceptually, they too could come up with a vision-based solution, although the weakness in processing power would probably come back to bite them in the butt. Another non-negligible fact is the incredible branding credit that Nintendo has acquired in non-gaming (aka new customers) circles. Finally, the Wii might be just "good enough" for these games - at least for this round of consoles. For sure, Nintendo will have to find another trick for its next-generation console.

The gaming world just entered into a new motion sensing arms race. Prepare for sweating!


앞으로 동작인식 영역쪽으로 매우 큰 발전이 있으리라 기대된다.  

출처 : http://www.ubergizmo.com/15/archives/2009/06/motion-sensor.html





또한 여기 국내 어떤 분이 만든 손 동작인식가 있는데 손으로 블럭을 쌓아올리기도 하며 꽤나 높은 퀄리티를 보여주었다. http://cafe.naver.com/opencv/10580