Connect with us


Automotive Electronic Systems—a View of the Future [icnweb]



By Ron Wilson, Editor-in-Chief, Altera Corporation

Automotive driver assist systems (ADAS) are the hot topic today in automotive electronics. The systems range from passive safety systems that monitor lane exits, active safety systems like advanced cruise control, to, in the future, situation-aware collision-avoidance systems. The increasing demands ADAS evolution places on data transport and computing are fundamentally changing automotive electronics architectures. And it is becoming clear that these changes foreshadow the future for many other kinds of embedded systems.


Goals and Requirements

Today vehicle-safety electronic systems are isolated functions that control a specific variable in response to a specific set of inputs. An air-bag controller, for example, detonates its explosive charge when an accelerometer output trips a limit comparator. A traction-control system applies a brake to reduce torque on a wheel when the data stream from a shaft encoder indicates sudden acceleration. While these systems make contributions to vehicle safety, they can also act inappropriately because their inputs give them a very narrow view of the world. Hitting a pot-hole or bumping into a car while parking can fire an air bag. A rough road can puzzle traction control.

All that is about to change, according to Steve Ohr, semiconductor research director at Gartner. “Advanced air-bag controllers have multiple sensors that literally vote on whether a crash is happening,” Ohr explained in introduction to his panel at the GlobalPress Summit in Santa Cruz, California, on April 24. “In the near future, the controllers will consult sensors that monitor passengers and cargo to identify how best to deploy the various air bags during a crash.”

At this point, the air-bag controller has crossed a critical threshold: from responding to an input to maintaining—and responding to—a dynamic model of the vehicle. This change, Ohr emphasized, is being echoed in other systems throughout the vehicle, with profound consequences. “We see the same pattern in safety systems such as lane-exit monitors and impending-hazard detectors,” Ohr stated. “Each system is getting more intelligence, moving to sensor integration and then to sensor fusion.”

This evolution is happening in an already astoundingly complex environment. Panelist Frank Schirrmeister, senior director of product marketing at Cadence Design Systems, observed “In 2010, a high-end car could have 750 CPUs, performing 2,000 different functions, and requiring one billion lines of code.” Schirrmeister said that this degree of complexity was forcing developers to adopt hardware-independent platforms such as Automotive Open System Architecture (AUTOSAR), and integrated mechanical-electrical-software development suites. In this fog of complexity, system designers are struggling to cope with a sudden surge of change in the way the systems handle data.


Isolation to Fusion

Hazard-avoidance systems offer a microcosm of this sweeping changes, according to panelist Brian Jentz, automotive business-unit director at Altera Corporation. Today, relatively simple systems like back-up cameras can already have significant processing requirements, Jentz said. “Inexpensive cameras need fish-eye correction to fix the perspective so drivers can interpret the display easily.” These cameras also need compensation to produce useful images in low light, and often they will require automated object recognition. These functions can be done better in the camera, but it’s often cheaper to do them in the central engine control unit (ECU). “Cameras are moving to high-definition,” Jentz continued, “and this can mean megapixels per frame. If you are sending images to the ECU, you may have to compress the data before it leaves the camera.”

Further evolution will complicate the data transport problem further. Hazard detection will move from simply showing an image from a rear-facing camera to modeling the whole dynamic environment surrounding the car. At this point the system must stitch together images from multiple cameras—at least eight for a 360-degree view with range and velocity detection, as shown in Figure 1. A central processor is absolutely necessary, and the ADAS must transport many streams of compressed video to the ECU concurrently.

Figure 1. Placement and use of cameras determines the algorithms required to process the images.

But things get harder still. Video cameras are hampered by darkness and disabled by rain, snow, road spray, and other sorts of optical interference. So designers team the video cameras with directed-beam, millimeter-wave radar to improve reliability in low-visibility conditions. Now the ECU must fuse the video data with the very different radar signal in order to interpret its surroundings. This fusion will probably be done using a system-estimation technique called a Kalman filter.

Kalman and its Discontents

A Kalman filter can take in multiple streams of noisy data from different sorts of sensors and combine them into a single, less-noisy model of the system under observation. It does this, roughly speaking, by maintaining three internal data sets: a current estimate of the state of the system, a “dead reckoning” model—usually based on physics—for predicting the next state of the system, and a table rating the credibility of each input. On each cycle, the Kalman filter assembles the sensor data and uses it to create a provisional estimate of the system state: for example, the locations and velocities of the objects surrounding your car. Simultaneously, the filter creates a second estimate by applying the dead-reckoning model to the previous state: the other cars should have moved to here, here, and here, the pedestrian should have walked that far, and the trees should have stayed where they were. Next, the filter compares the two state estimates, and taking into account the credibility ratings of the inputs, updates the previous state with a new best estimate: here’s where I think everything is really. Finally, the Kalman filter sends the new state estimate to the analysis software so it can be evaluated for potential hazards, and it updates its sensor-credibility table to make note of any questionable inputs.

The good news is that the Kalman filter can assemble a stable and accurate model of the outside world despite intermittent readings, high noise levels, and a mix of very different kinds of sensor data. But there are issues, too. Kalman filters working with high-definition (HD) video inputs can consume huge amounts of computing power, and the analytic routines they enable can take far more, as suggested in Figure 2. “Algorithm development is already ahead of silicon performance,” Jentz noted. “There is basically an unlimited demand for performance.”

Figure 2. Sensor fusion concentrates many heavy algorithms and network terminations on one chip.

There is another issue with important system implications. While Kalman filters are inherently tolerant of noise, they cannot be immune to it. And variations in the latency between the sensors and the ECU—particularly if the variation is large enough for samples to arrive out of order—appear as noise. Such latency variations can cause the filter to reduce its reliance on some sensors, or to ignore altogether information that could have made a vital difference.

This is important because of trends in vehicle network architectures. Purpose-built control networks such as the controller-area network (CAN) or the perhaps-emerging FlexRay network can limit jitter and guarantee delivery of packets carrying some sensor data, although they may lack the bandwidth for even compressed HD video. In principle, system designers could calculate the bandwidth they need for a given maximum jitter, and then provision the system with enough network links to meet the need, even if that resulted in dedicated CAN segments for each camera and radar receiver. But in practice, automotive manufacturers are headed in a different direction: cost control.

“The direction is Ethernet everywhere in the car,” argued panelist Ali Abaye, senior director of product marketing at Broadcom. Abaye said that as the number of sensors increases, cost-averse manufacturers—including the high-end brands—are trying to collapse all their various control, data, and media networks onto a single twisted-pair Ethernet running at 100 Mbits or 1 Gbit.

But a shared network raises the latency issue again. Because Ethernet creates delivery uncertainties, some sort of synchronizing protocol—IEEE 1588, Time-Triggered Protocol (TTP), or Audio Video Bridging (AVB)—would appear necessary. “This is still an active discussion,” Schirrmeister said. “The existing protocols are not yet sufficient for everything these systems need to do.” Abaye, who has 100 Mbit transceivers to sell, is more confident. “Our opinion is that the AVB protocol is sufficient,” he stated.

These debates will have system implications well beyond the cost of cabling. Gigabit Ethernet implies silicon at advanced process nodes, where issues like cost, availability, and soft-error rates become questions. Synchronizing protocols are not exactly light-weight, implying the need for more powerful network adapters. And the need to store and possibly reorder frames of time-stamped data from many sensors could impact memory footprints.


A Multibody Problem

As a final point, when you put radar or scanning lasers into the ADAS architecture, you get a fascinating side-effect. The ADAS on nearby vehicles can now interact with each other. This could lead to sensor interference, or even to an unstable multivehicle system in which two cars hazard-avoid right into each other. This is not a whimsical question: there are hazard-avoidance algorithms that, when used by multiple vehicles in the same traffic stream, are known to lead inevitably to crashes.

“There has already been some research into the behavior of multi-ADAS systems,” Schirrmeister said. “It is an area of continuing interest.”

Such questions will almost certainly involve regulatory agencies in North America and the European Union in the design of ADAS algorithms at some level. Schirrmeister speculated that in developing countries, where cities can spring up and create all-new infrastructure as they go, there may be a move to coordinate ADAS evolution with the development of smart highways.

In any case, it is clear that verification of these systems will involve a significant degree of full-system, and perhaps multisystem, modeling. These will be huge tasks, going well beyond the experience of most system-design teams outside the military-aerospace community.

We have traced the evolution of one automotive system, ADAS, from a set of isolated control loops to a centralized sensor-fusing system. Other systems in the car will follow the same evolutionary path. Then the systems will begin to merge: ADAS, for example, working with the engine-control and traction systems can bypass the driver altogether and maneuver the car away from trouble. The endpoint is an autonomous vehicle—and a network of intelligent control systems of stunning complexity built around a centralized model of the outside world.

Continue Reading
Click to comment

댓글 남기기


힐셔, 산업용사물인터넷 지원 netIOT 활용방안 제시



힐셔 netIOT

산업용 통신 솔루션 선두업체인 힐셔(Hilscher Gesellschaft für Systemautomation mbH)는 11월 2일(금), 인터컨티넨탈 서울 코엑스에서 기자 간담회를 개최하여 힐셔의 혁신적인 netIOT 전략 및 netIOT 인터페이스의 다양한 솔루션을 활용한 IoT 기술 활성화 방안에 대해 소개하는 자리를 가졌다.

힐셔 netIOT


힐셔 프로덕트 매니저인 크리스토프 훙어(Christof Hunger)는 “IoT 시장이 성장함에 따라 설비 제조업체들은 필드 디바이스의 정보를 기반으로 예방적 유지보수, 상태 모니터링과 같은 새로운 클라우드 기반의 부가가치 서비스를 구현하고자 한다”며 “힐셔는 디바이스 제조업체들이 힐셔의 netIOT 인터페이스 솔루션을 이용해서 산업용 이더넷, 트랜스페어런트 이더넷(Transparent Ethernet)과 함께 OPC UA 서버 및 MQTT 클라이언트 기능을 쉽게 추가할 수 있도록 더욱 집중하였고, 힐셔 솔루션을 통해 고객들이 스마트 팩토리를 구축하는데 도움이 되길 바란다.” 라고 말했다.

인더스트리 4.0과 IIoT는 4차 산업혁명으로 센서에서 클라우드까지 지속적인 통신을 요구한다. 힐셔는 이를 산업용 클라우드 통신이라 칭하고 고객들이 Industry 4.0, 스마트팩토리 및 IoT를 구현하도록 돕기 위해서 힐셔 netIOT 제품군이라는 솔루션을 구축하고, 지속적으로 프로모션을 진행하고 있다. netIOT는 netIOT 서비스(Service), netIOT 엣지(Edge), netIOT 인터페이스(Interface)와 같이 총 3개의 영역으로 구분된다. 특히 netIOT 인터페이스는 IoT 기능을 갖는 netX기반의 통신제품으로 netIC IOT와 같은 모듈형 제품을 생산 및 공급하고 있다.

힐셔 넷프록시



netIC IOT는 필드 디바이스용 지능형 멀티 프로토콜 모듈로 하나의 하드웨어만으로 모든 Real-Time Ethernet 슬레이브 프로토콜을 지원한다. OEM 고객들은 엔지니어링 툴을 이용하여 고객 어플리케이션 소프트웨어에서 한번만 개발하면 되는 고객 디바이스용 프로토콜 독립형 객체 모델을 생성한다. 네트워크 프로토콜 변경은 툴 내에서 ‘Build Process’를 통해 전적으로 진행되기 때문에 어플리케이션에 필요한 네트워크 별 조정이 없으며 OEM은 정확히 하나의 하드웨어와 소프트웨어 설계로 진정한 멀티 프로토콜 디바이스를 구현할 수 있다.

힐셔코리아 원일민 지사장은 “스마트 팩토리의 구축에 있어 가장 중요한 포인트는 IT영역과 OT영역의 연결에 있다”고 언급하며, “힐셔는 netIOT를 통해 시스템 설치시 발생할 수 있는 리스크를 최소화시킬 수 있게 하고자 한다. 기존OT영역의 사용자들이 IT영역으로 데이터를 전송하거나 클라우드에 연결함에 있어서 사용자의 실수나 의도치 않은 수고를 덜어줄 수 있는 제품과 서비스를 지원하고 있어 시스템 설계나 설치시 발생할 수 있는 오류나 리스크를 최소화 시켜준다”고 덧붙혔다.

힐셔 netIOT 제품에 대한 자세한 설명은 홈페이지 에서 확인할 수 있다.

Continue Reading


[포토] PTC, 3D CAD에 증강현실 접목해 디지털 트윈 현실화



'2018 코리아 CAD 서밋'에서 증강현실(AR)을 통한 디지털 트윈을 체험하고 있다.

'2018 코리아 CAD 서밋'에서 증강현실(AR)을 통한 디지털 트윈을 체험하고 있다.

(사진. PTC 코리아)

PTC코리아가 10월 18일 개최한 ‘2018 코리아 CAD 서밋’에서 증강현실(AR)을 통한 디지털 트윈을 체험하고 있다. PTC의 3D CAD 소프트웨어 크레오(Creo®) 5.0은 디지털 트윈 솔루션을 현실화한 세계 최초이자 유일한 기술로 제품의 면면에 증강현실을 적용하여 물리적 세계와 디지털 세계를 연결한다. (사진. PTC 코리아)

Continue Reading


2016 스마트테크쇼, 6월 8~10일 코엑스서 개최



인공지능 시대를 전망하고 사람을 위한 스마트 기술을 소개하는 ‘2016 스마트테크쇼(Smart Tech Show 2016)’가 6월 8일부터 10일까지 코엑스에서 개최된다. 

본 행사는 ‘Smart Tech for Human’라는 슬로건 아래, ▲드론/로봇 ▲가상/증강현실 ▲에듀테크 ▲스마트 모빌리티 ▲리테일테크 ▲3D프린팅 등 주요 이슈를 선정하여 국내 대표 스마트 기술 컨퍼런스 및 전시회를 개최하며, 관련 산업 간의 시너지를 창출할 수 있는 비즈니스의 장을 마련한다. KT, LG전자, ADT 시큐리티, 프로차일드, 한국과학기술원, 경북대학교 산학협력단 등 각 분야별 주요 기업·기관 125개사 400부스 규모로 이루어질 예정이다. 

유통과 IT산업의 융합을 위한 자리로 스마트 기기 체험과 첨단 리테일 솔루션을 접목한 리테일&테크 특별관이 구성되어 IT/유통산업 관계자를 대상으로 앞으로의 IT 리테일샵이 나아갈 방향을 제시한다. 더불어 한국마이크로소프트와 SGA임베디드 주최로 ‘스마트 리테일에 최적화된 MS IoT 솔루션 세미나’를 개최하여 리테일에 스마트한 혁신을 가져올 솔루션을 소개하는 자리를 마련한다. 

◇인공지능 시대, 일자리 전망 콘퍼런스 개최 

본 전시회와 더불어 ‘인공지능 시대의 일자리 창출과 직업능력 개발’을 주제로 분야별 전문가를 초빙하는 전문 콘퍼런스가 6월 8일과 9일 이틀간 열린다. 

첫째 날은 IBM 김연주 상무와 국내 대표 뇌공학자인 카이스트 정재승 교수의 기조강연과 핀란드 미래학자 마르쿠 윌레니우스(Markku wilenius) 교수의 특별강연을 시작으로 스마트기술의 산업과 일자리에 대해 블록체인OS 박창기 대표와 한국직업능력개발원 김영생 박사의 강연이 이어질 예정이다. 

둘째 날은 ‘새로운 일자리 창출 엔진으로서의 VR 그리고 교육훈련 플랫폼으로서의 가능성’에 대한 한국VR산업협회 현대원 회장의 발표와 ‘에듀테크가 가져올 교육의 혁명적 변화를 주제’로 휴넷 조영탁 대표의 기조연설 후에 스타트업 케이스 스터디를 통해 스마트시대에서 일하기 위한 우리의 성공 전략을 짚어볼 예정이다. 

◇드론에 스마트 기술의 미래를 담다 

드론 관련 신기술 촉진과 국내 드론산업 활성화를 목적으로 6월 대규모 드론 이벤트가 열린다. 드론톤은 우수한 엔지니어와 창의적인 메이커들이 드론 관련 기술을 뽐내는 자리로, 4인 1조로 팀을 꾸려 드론을 직접 제작하고 완성된 기체로 드론 게임을 진행하여 완성도와 비행능력을 종합하여 우승자를 가리게 된다. 

드론 조작에 능숙한 유저라면 도전해 볼 만한 대회도 있다. 다양한 장애물 통과 미션을 통해 드론 실력자를 가리는 ‘드론챌린지’가 9일 개최된다. 우승자에게는 최신 스마트 모빌리티가 수여되며, 참가를 원하는 이는 한국FPV협회 홈페이지를 통해 신청 가능하다. 

그밖에 스마트카, O2O, 핀테크 등 분야별로 이루어지는 테크니컬 세미나와 국내 대표 엑셀러레이터간 의 공동 데모데이를 통해 참가기업과 바이어 간의 비즈니스 기회를 마련한다. 

본 행사는 홈페이지에서 온라인 사전등록 시 무료로 관람할 수 있다.

Continue Reading


Power Electronics Mag
스마트공장 자동화 산업전
Japan ITweek
  • 슈나이더 일렉트릭
  • 지멘스
  • 힐셔코리아
  • HMS Anybus
  • 비앤드알 산업자동화
eBook 보기

책 판매대

SPS 2018
물류기술 매거진


© Copyright 2006-2018 아이씨엔미래기술센터 All Rights Reserved.
tel. 0505-379-1234, fax. 0505-379-5678 | e-mail. | Powered by WordPress Flex Mag Theme. Theme by MVP.
Address: 72-31 2F, Changcheon-dong, Seodaemun-gu, Seoul, 03787, Korea
주소: 서울특별시 서대문구 연세로5다길 41, 2층 아이씨엔 (창천동)(우편번호 03787)

업체명: 아이씨엔, 사업자등록번호: 206-11-69466, 대표자: 오승모, 통신판매업신고증: 2009-서울서대문-0373호

기사제보 : / 반론청구 :
아이씨엔의 모든 콘텐츠는 저작권법의 보호를 받습니다. 이의 일부 또는 전부를 무단 사용하는 것은 저작권법에 저촉되며, 법적 제재를 받을 수 있습니다.

[[클린 광고 선언]]
아이씨엔매거진은 어떠한 경우에도 성인, 성형, 사채, 폭력, 투기, 악성SW 및 환경파괴(원자력 포함) 관련 광고는 게시하지 않습니다.
[광고 신고:]