1-1-5. Partnership with Industry

1. Introduction to Computer Vision – Welcome to Computer Vision

I’m Danny Shapiro. I’m the senior director of automotive at NVIDIA.

NVIDIA is a technology company that’s developed a lot of different computing platforms.

Specifically, we’ve developed an AI supercomputer

for self-driving vehicles, whether the cars,

shuttles, trucks, or any kinds of other vehicles

that we’ll soon see on our roads and maybe even in the skies above us.

So NVIDIA is not making cars,

but NVIDIA has its own fleet of self-driving test vehicles,

and we’ve dubbed it BB8,

as a robotic, an advanced robotic vehicle,

and we’re testing those here on the streets in California,

in New Jersey, in Germany as well.

We’ve been working with the auto industry for almost two decades now.

In fact, every car, truck, plane,

or other mode of transportation and

even consumer goods are designed on NVIDIA graphics hardware and software systems.

About a decade ago,

we started bringing our technology into the car.

We started working on infotainment systems and digital cockpits and head up displays.

More recently though our technology because of the role we’re playing in

artificial intelligence is being used for self-driving vehicles.

So instead of us generating information out in the form of pixels on displays,

we’re also now processing information coming in.

So radar, lidar, camera information all comes in to the NVIDIA system,

and we’re using artificial intelligence now to make sense of it.

Now we have a specific product just for vehicles,

and it’s called Drive PX.

It’s an AI supercomputer that has the power of over 150 MacBook Pros,

all in a very small form factor,

about the size of a license plate.

Essentially, all the inputs come in to the Drive PX, from cameras,

from sensors like radar and lidar and ultrasonic all generating data.

So our processor has to take all this information and make sense of it.

Basically identify what’s another vehicle,

what’s a pedestrian, what’s a crosswalk, what’s a sign.

And all of this happens within a fraction of a second.

We have cameras generating 30 frames every second,

we have to analyze those frames and understand a full 360 environment around the vehicle.

The GPU or graphics processing unit was invented by NVIDIA in 1999.

This is a massively parallel processor,

and it’s different from a CPU or central processing unit that you find in your PC.

You’ve probably heard a CPU described as

a dual core or quad core and so essentially that means it is two lanes,

or maybe four lanes of information that will flow through that CPU at once.

The GPU on the other hand,

has now over five thousand cores,

so imagine if this was a highway instead of a two-lane highway or a four-lane highway,

we now have 5,000 lanes.

So a lot of traffic,

a lot of information can go through that processor simultaneously.

And then, we’re able to bring all that computational horsepower down into

that car in the Drive PX to the process all the sensor data in real time.

Drive PX 2 is one of several products from NVIDIA that are all using deep learning.

So we have the system for the car,

but other people who are developing can develop on a PC.

You can use deep learning in the cloud or

an embedded device called jets and if you’re a hobbyist or a maker.

The benefit of this unified architecture is again you develop

on one platform and you can deploy it on any platform.

And so I think that’s the challenge today is for

students and now the industry to develop new algorithms,

new deep neural networks,

and leverage AI to build

a complete self driving cars system that is specific to the vehicle.

Given the types of jobs out in the marketplace today and the lack of talent,

I think there’s a lot of opportunity for anyone just getting started who

can take courses to understand the fundamentals of computing today.

And now there’s a whole number of things that are unique to the self driving challenge,

so understanding the complexity of what happens throughout the computing pipeline of

developing a self driving cars will be essential to getting a job in this industry.

저는 대니 샤피로입니다. 저는 NVIDIA의 자동차 부문 수석 이사입니다.

NVIDIA는 다양한 컴퓨팅 플랫폼을 개발한 기술 회사입니다.

특히 AI 슈퍼컴퓨터를 개발했습니다.

자율주행차의 경우 자동차,

셔틀, 트럭 또는 기타 모든 종류의 차량

우리는 곧 길에서 그리고 어쩌면 우리 위의 하늘에서도 보게 될 것입니다.

따라서 NVIDIA는 자동차를 만드는 것이 아니라

하지만 NVIDIA는 자체적인 자율주행 테스트 차량을 보유하고 있습니다.

그리고 우리는 그것을 BB8이라고 불렀습니다.

로봇, 첨단 로봇 차량으로,

여기 캘리포니아 거리에서 테스트하고 있습니다.

독일에서도 뉴저지에서.

우리는 거의 20년 동안 자동차 산업과 협력해 왔습니다.

사실 모든 자동차, 트럭, 비행기,

또는 기타 운송 수단 및

소비재조차도 NVIDIA 그래픽 하드웨어 및 소프트웨어 시스템에서 설계되었습니다.

약 10년 전,

우리는 우리의 기술을 차에 도입하기 시작했습니다.

우리는 인포테인먼트 시스템과 디지털 조종석, 헤드업 디스플레이 작업을 시작했습니다.

더 최근에는 우리가 하는 역할 때문에 우리 기술이

자율주행차에 인공지능이 활용되고 있다.

따라서 디스플레이에 픽셀 형태로 정보를 생성하는 대신

우리는 또한 현재 들어오는 정보를 처리하고 있습니다.

그래서 레이더, 라이더, 카메라 정보가 모두 NVIDIA 시스템에 들어오고,

그리고 우리는 그것을 이해하기 위해 지금 인공 지능을 사용하고 있습니다.

이제 우리는 차량만을 위한 특정 제품을 가지고 있습니다.

드라이브 PX라고 합니다.

150개 이상의 MacBook Pro의 성능을 갖춘 AI 슈퍼컴퓨터입니다.

모두 매우 작은 폼 팩터로,

대략 번호판 크기.

기본적으로 모든 입력은 카메라에서 Drive PX로 들어옵니다.

레이더, 라이더 및 초음파와 같은 센서에서 데이터를 생성합니다.

따라서 프로세서는 이 모든 정보를 가져와 이해해야 합니다.

기본적으로 다른 차량이 무엇인지 식별하고,

보행자란 무엇이며 횡단보도는 무엇이며 표지판은 무엇입니까?

그리고 이 모든 것이 1초 미만의 찰나의 순간에 발생합니다.

초당 30프레임을 생성하는 카메라가 있습니다.

우리는 이러한 프레임을 분석하고 차량 주변의 전체 360도 환경을 이해해야 합니다.

GPU 또는 그래픽 처리 장치는 1999년 NVIDIA에서 발명했습니다.

이것은 대규모 병렬 프로세서이며,

PC에서 볼 수 있는 CPU나 중앙 처리 장치와는 다릅니다.

CPU가 다음과 같이 설명되는 것을 들었을 것입니다.

듀얼 코어 또는 쿼드 코어이므로 본질적으로 2개의 레인을 의미합니다.

또는 한 번에 해당 CPU를 통해 흐르는 4개의 정보 레인이 있습니다.

반면 GPU는

현재 5,000개 이상의 코어를 보유하고 있으며,

이것이 2차선 고속도로나 4차선 고속도로가 아닌 고속도로라면

이제 5,000개의 레인이 있습니다.

그래서 교통량이 많고,

많은 정보가 해당 프로세서를 동시에 통과할 수 있습니다.

그런 다음, 우리는 그 모든 계산 능력을

Drive PX의 해당 차량은 모든 센서 데이터를 실시간으로 처리합니다.

Drive PX 2는 모두 딥 러닝을 사용하는 NVIDIA의 여러 제품 중 하나입니다.

그래서 우리는 자동차에 대한 시스템을 가지고 있습니다.

그러나 개발 중인 다른 사람들은 PC에서 개발할 수 있습니다.

클라우드에서 딥 러닝을 사용하거나

제트기라고 하는 내장형 장치와 취미로 하는 사람이나 제작자인 경우.

이 통합 아키텍처의 이점은 다시 개발할 수 있다는 것입니다.

하나의 플랫폼에 배포할 수 있으며 모든 플랫폼에 배포할 수 있습니다.

그래서 저는 그것이 오늘의 과제라고 생각합니다.

학생들과 이제 업계에서 새로운 알고리즘을 개발하기 위해

새로운 심층 신경망,

AI를 활용하여

차량에 특화된 완전한 자율주행 자동차 시스템.

오늘날 시장에 나와 있는 직업의 유형과 인재 부족을 감안할 때,

이제 막 시작하는 사람에게는 많은 기회가 있다고 생각합니다.

오늘날 컴퓨팅의 기초를 이해하는 과정을 수강할 수 있습니다.

이제 자율 주행 챌린지에 고유한 여러 가지가 있습니다.

따라서 컴퓨팅 파이프라인 전반에 걸쳐 발생하는 복잡성을 이해하고

자율주행차를 개발하는 것은 이 산업에서 일자리를 얻는 데 필수적입니다.
jeoneun daeni syapi

업계와의 파트너십
이 프로그램을 만들면서 우리는 NVIDIA에서 Affectiva에 이르기까지 업계 리더들과 협력하여 오늘날 기술의 최전선에서 컴퓨터 비전이 어떻게 적용되고 있는지 보여주는 과정을 만들었습니다. Affectiva가 안면 인식과 딥 러닝을 사용하여 감성 지능이 있는 시스템을 만드는 방법에 대한 예를 이미 보았고 다음 비디오에서 NVIDIA 플랫폼에서 컴퓨터 비전 기술이 많이 사용되는 것을 볼 수 있습니다.

컴퓨터 비전을 사용하여 다양한 기술을 수행하는 자율 주행 자동차의 예를 볼 수 있습니다.

물체 인식 및 차선 감지
얼굴 인식
교통 및 시험 코스 탐색,
개체 추적
이 Computer Vision 프로그램에서 더 자세히 다룰 모든 기술.

NVIDIA 도구로 작업하기

NVIDIA 개발자 프로그램에 등록하여 최신 NVIDIA SDK 도구에 액세스하고 NVIDIA 제품 발표를 가장 먼저 들을 수 있습니다. developer.nvidia.com/developer-program에서 자세히 알아보십시오.

%d 블로거가 이것을 좋아합니다: