영어

[TED로 영어공부하기] Pattie Maes : Meet the SixthSense interaction (식스센스 웨어러블 테크를 만나세요)

insight_knowledge 2016. 12. 2. 07:13
반응형

안녕하세요 위키드 스마트입니다. 

이번엔 MIT 미디어 랩의 fluid interface group 수장인 페티 메이즈(Pattie Maes)를 통해 미래를 바꿀 식스센스인 웨어러블 테크를 만나보시고, 영어 독해 공부도 해보세요~

I've been intrigued by this question of whether we could evolve or develop a sixth sense -- a sense that would give us seamless access and easy access to meta-information or information that may exist somewhere that may be relevant to help us make the right decision about whatever it is that we're coming across. And some of you may argue, "Well, don't today's cell phones do that already?" But I would say no. When you meet someone here at TED -- and this is the top networking place, of course, of the year -- you don't shake somebody's hand and then say, "Can you hold on for a moment while I take out my phone and Google you?" Or when you go to the supermarket and you're standing there in that huge aisle of different types of toilet papers, you don't take out your cell phone, and open a browser, and go to a website to try to decide which of these different toilet papers is the most ecologically responsible purchase to make.

저는 우리가 과연 식스센스를 개발해 낼 수 있을까라는 질문에 흥미를 가져왔습니다. 우리가 쉽고 완벽하게 메타 정보나 어딘가에 존재하는 관련 정보에 접근하여 우리를 지나치는 여러 문제에 대해 올바를 결정을 내릴 수 있도록 도와줄 능력을 말이죠. 여러분 중 몇몇은 아마 그런 건 핸드폰으로 이미 할수 있지 않냐고 반문할 지 모릅니다. 하지만 전 그렇지 않다고 생각합니다. 당신이 여기 TED에서 누군가를 만난다고 가정해보죠. 최고의 교류의 장이라고 할 수 있는 이 곳에서 말이죠. 아마 당신은 그 사람과 악수부터 나눈 후 이렇게 말하지는 않을 거에요 "당신이 누구인지 핸드폰으로 검색할 동안 잠시만 기다려주시겠어요?" 혹은 슈퍼마켓에서 장을 보러 가서 수 많은 종류의 휴지 더미 앞에 서있는 당신을 상상해보세요. 아마 당신은 이 중 어떤 휴지를 사는 것이 가장 친환경적인 지를 확인하려고 휴대폰을 꺼내 브라우져를 켜고 어떤 웹 사이트에 들어가지는 않을 겁니다.

So we don't really have easy access to all this relevant information that can just help us make optimal decisions about what to do next and what actions to take. And so my research group at the Media Labhas been developing a series of inventions to give us access to this information in a sort of easy way, without requiring that the user changes any of their behavior. And I'm here to unveil our latest effort, and most successful effort so far, which is still very much a work in process. I'm actually wearing the device right now and we've sort of cobbled it together with components that are off the shelf -- and that, by the way, only cost 350 dollars at this point in time.

그러고 보면, 우리는 최적의 결정과 그에 따른 다음 행동을 결정하기 위한 모든 관련 정보에 쉽게 접근하지 못한다고 할 수 있습니다. 그래서, 미디어 랩의 제 리서치 그룹에서 몇 가지 발명품을 개발하고 있는데요. 우리가 기존의 행동 양식을 바꾸지 않고 이러한 정보에 보다 쉽게 접근할 수 있도록 하기 위한 것들이죠. 오늘 여러분께 보여드릴 것은 저희들의 가장 최근의 성과물로 지금껏 가장 성공적인 결과물이자, 여전히 발전 중인 작업물입니다. 사실 제가 이미 그 장비를 착용하고 있는데요. 밖에서 당장 살 수 있는 몇 가지 부품들을 조립해서 만든거죠. 고작 350달러 밖에 들이지 않고 말이에요.

I'm wearing a camera, just a simple web cam, a portable, battery-powered projection system with a little mirror. These components communicate to my cell phone in my pocket which acts as the communication and computation device. And in the video here we see my student Pranav Mistry, who's really the genius who's been implementing and designing this whole system. And we see how this system lets him walk up to any surface and start using his hands to interact with the information that is projected in front of him. The system tracks the four significant fingers. In this case, he's wearing simple marker caps that you may recognize. But if you want a more stylish version, you could also paint your nails in different colors.

제가 차고 있는 것은 평범한 웹캠과, 거울이 부착된 배터리로 작동하는 포터블 프로젝터입니다. 이것들은 통신과 컴퓨팅을 담당하는 제 주머니 속 휴대폰과 커뮤니케이션 하도록 되어 있습니다. 비디오 속에 제 학생인 프라나브 미스트리 군이 나오고 있는데요. 이 친구가 바로 이 모든 걸 고안하고 실현해 낸 진짜 천재입니다. 그가 어떻게 이 시스템을 이용해 주변 물체의 표면에 정보를 투영하고 자신의 손으로 정보를 조정할 수 있는지 보고 계십니다. 이 시스템은 네 개의 손가락을 추적하죠. 여기서 그는 손가락에 여러분이 잘 아는 마커펜의 뚜껑을 착용하고 있습니다. 좀 더 멋진 것을 원한다면, 손톱을 다른 색으로 칠해도 좋겠죠.

And the camera basically tracks these four fingers and recognizes any gestures that he's making so he can just go to, for example, a map of Long Beach, zoom in and out, etc. The system also recognizes iconic gestures such as the "take a picture" gesture, and then takes a picture of whatever is in front of you. And when he then walks back to the Media Lab, he can just go up to any wall and project all the pictures that he's taken, sort through them and organize them, and re-size them, etc., again using all natural gestures.

기본적으로 카메라는 이렇게 표시된 네 손가락을 추적하며, 그가 만들어 내는 움직임을 인식하죠. 예를 들어, 그는 이 곳 롱 비치의 지도를 볼 수 있습니다. 줌 인 또는 줌 아웃 등도 가능하지요. 이 시스템은 또 몇 가지 상징적인 움직임을 인식합니다. 이를테면, 사진 촬영 동작을 취하면 당신 앞에 보이는 것을 사진에 담을 수 있죠. 이번에는 그가 미디어 랩으로 걸어가 벽면에 방금 전에 찍은 모든 사진을 띄우고, 사진들을 분류하거나 정리할 수 있습니다. 크기 조정이나 다른 것도 가능하죠. 이 모든 것을 자연스런 동작으로 해냈습니다. 

So, some of you most likely were here two years ago and saw the demo by Jeff Han, or some of you may think, "Well, doesn't this look like the Microsoft Surface Table?" And yes, you also interact using natural gestures, both hands, etc. But the difference here is that you can use any surface, you can walk up to any surface, including your hand, if nothing else is available, and interact with this projected data. The device is completely portable, and can be --

아마 여러분은 재작년에 이 곳에서Jeff Han이 시연하는 것을 보셨을 텐데요. 여러분 중 몇몇은 "이거 마이크로소프트의 Surface 랑 같은 거 아냐?"라고 생각하겠죠. 그렇습니다. 그들도 양손의 자연스런 움직임 같은 것을 인식하죠. 하지만, 이번에는 모든 표면을 사용할 수 있다는 점이 다릅니다. 당신은 눈 앞에 보이는 어떤 표면도 이용할 수 있죠. 적당한 대상이 없다면, 당신의 손을 이용할 수도 있어요. 투사된 데이터를 쉽게 조작할 수 있죠. 이 장비는 어디든 휴대할 수 있고, 또

So, one important difference is that it's totally mobile. Another even more important difference is that in mass production, this would not cost more tomorrow than today's cell phones and would actually not sort of be a bigger packaging -- could look a lot more stylish than this version that I'm wearing around my neck. But other than letting some of you live out your fantasy of looking as cool as Tom Cruise in "Minority Report," the reason why we're really excited about this device is that it really can act as one of these sixth-sense devices that gives you relevant information about whatever is in front of you. So we see Pranav here going into the supermarket and he's shopping for some paper towels. And, as he picks up a product, the system can recognize the product that he's picking up, using either image recognition or marker technology, and give him the green light or an orange light. He can ask for additional information. So this particular choice here is a particularly good choice, given his personal criteria. Some of you may want the toilet paper with the most bleach in it rather than the most ecologically responsible choice.

완전한 모바일 기기라는 중요한 차이를 가지고 있죠. 무엇보다 중요한 차이점은, 이 제품을 대량 생산할 경우 현재 휴대폰보다도 적은 비용으로 생산할 수 있으며, 제가 지금 목에 착용하고 있는 제품보다는 훨씬 작은 크기에 멋진 모양새를 지니게 될 것이라는 점입니다. 하지만 사실 당신이 "마이너리티 리포트"의 톰크루즈가 되는 판타지를 이루도록 하는 것 말고도, 우리가 이 장비에 상당한 흥미를 느끼는 이유는, 이 장비가 당신에게 필요한 정보를 제공하는 "식스 센스" 장치로 활용될 수 있다는 점이죠. 당신 앞에 무엇이 있든 말이죠. 여기 프라나브가 슈퍼마켓으로 들어가는군요. 그는 휴지를 좀 사려고 합니다. 그가 물건을 집어들면, 시스템이 영상 인식이나 마커 기술을 이용해 그가 손에 집어든 제품을 인식합니다. 그리곤 그에게 녹색이나 오렌지색 사인을 보내죠 그는 추가 정보를 요구할 수도 있습니다. 덕분에 그는 선택의 기로에서 그의 기준에 부합하는 최선의 선택을 할 수 있죠. 여러분 중 어떤 분들은 환경 친화적인 제품보다는 표백이 잘 된 화장지를 선호할 지도 모르겠군요.

If he picks up a book in the bookstore, he can get an Amazon rating -- it gets projected right on the cover of the book. This is Juan's book, our previous speaker, which gets a great rating, by the way, at Amazon. And so, Pranav turns the page of the book and can then see additional information about the book --reader comments, maybe sort of information by his favorite critic, etc. If he turns to a particular page, he finds an annotation by maybe an expert or a friend of ours that gives him a little bit of additional information about whatever is on that particular page. Reading the newspaper -- it never has to be outdated.

이번엔 그가 서점에서 책을 집어 들자, 아마존의 점수가 제공됩니다. 그것도 책의 표지에 바로 비춰지네요. 이전 강사였던 후안이 쓴 책인데, 아마존에서 꽤 좋은 평점을 받았었죠. 프라나브가 책을 펼치자 이번에는 그 책에 대한 추가 정보가 나타납니다. 독자 의견이나, 그가 가장 좋아하는 비평가가 제공한 정보 같은 것들이죠. 책의 특정 페이지를 펼치면 전문가 뺨치는 식견을 지닌 친구들의 주석도 볼 수 있습니다. 물론 그에겐 좋은 추가 정보들이죠. 그 페이지에 어떤 내용이 있던 말입니다. 신문을 볼 때는, 날짜 지난 뉴스를 볼까 염려할 필요가 없죠.

You can get video annotations of the events that you're reading about. You can get the latest sports scores, etc. This is a more controversial one.

당신이 읽고 있는 사건과 관련된 동영상이나, 최신 운동 경기의 점수 등을 알 수 있으니까요. 이건 논란의 여지가 있을 수 있는데요.

As you interact with someone at TED, maybe you can see a word cloud of the tags, the words that are associated with that person in their blog and personal web pages. In this case, the student is interested in cameras, etc. On your way to the airport, if you pick up your boarding pass, it can tell you that your flight is delayed, that the gate has changed, etc. And, if you need to know what the current time is, it's as simple as drawing a watch on your arm.

당신이 TED에서 누군가와 마주칠 때, 당신은 태그 클라우드를 볼 수 있습니다. 그 사람과 관련된 단어들로 그들의 블로그나 개인 웹페이지에서 나온 것들이죠. 이 학생은 카메라 같은 것들에 관심이 있네요. 공항에 가는 길에는, 보딩패스를 집어 들어, 당신이 탑승할 비행기가 지연되지 않았는지, 탑승구가 바뀌지는 않았는지 등을 확인할 수 있습니다. 만일 현재 시간이 궁금하다면 간단히 당신 팔에 시계를 그리면 됩니다.

So that's where we're at so far in developing this sixth sense that would give us seamless access to all this relevant information about the things that we may come across. My student Pranav, who's really, like I said, the genius behind this.

여기까지가, 지금껏 저희가 개발한 식스센스입니다. 우리가 일상 생활 중 때때로 필요한 관련 정보에 쉽게 접근 할 수 있게 해줄 기술이죠. 말씀 드렸듯이, 대단한 천재이자 제 학생인 프라나브야말로,

He does deserve a lot of applause, because I don't think he's slept much in the last three months, actually. And his girlfriend is probably not very happy about him either. But it's not perfect yet, it's very much a work in progress. And who knows, maybe in another 10 years we'll be here with the ultimate sixth sense brain implant.

가장 많은 박수를 받아야 할 사람입니다. 최근 삼 개월간 잠도 제대로 못 잔 걸로 알고 있고, 그의 여자친구도 그다지 좋아하진 않았다니까요. 하지만 이 기술이 아직 완성된 것은 아닙니다. 어쩜 10년 후 쯤에는 뇌에 이식된 궁극의 식스센스를 들고 서게 될 지도 모르죠. 감사합니다.

Thank you.

감사합니다. 



반응형