Automatizált tesztelést befolyásoló trendek és technológiák
Thorsten Mayer – National Instruments
A National Instruments cég 11 közép-kelet-európai városban – köztük 2011. április 13-án Budapesten – rendezte meg Automatizált Teszt Konferencia elnevezésű előadássorozatát. A Magyar Elektronika hasábjain már több cikket is megjelentettünk erről a rendezvényről, most Thorsten Mayer kelet-európai marketingvezető nyitóelőadásának összefoglalóját közöljük.
Összefoglaló a National Instruments Automatizált Teszt Konferenciájának nyitóelőadásáról
Néhányan biztosan ismerik Moore-törvényét, amelyet az INTEL társalapítója, Gordon E. Moore után neveztek el. Ez a törvény azt állítja, hogy egy integrált áramkörben a költséghatékonyan elhelyezhető tranzisztorok száma körülbelül kétévente megkétszereződik. Ez a trend több mint fél évszázada tart már. Ennek eredményeképp láthatjuk, hogy az elektronikus eszközök egyre több és több funkcióval rendelkeznek, ezzel egy időben a méretük és áruk csökken.
Az elektronikai eszközök gyártóinak egyre bonyolultabb eszközöket kell a nagyfokú minőség követelménye miatt – de a költségek alacsonyan tartásával – nagy mennyiségben előállítaniuk. A tesztelés ennek a folyamatnak kritikus eleme: képes közvetetten növelni egy termék teljesítményét, közvetlenül emelni a minőségét és megbízhatóságát, azonban csökkentheti a megtérülés mértékét is. A körültekintően kiválasztott tesztstratégia a tesztelés teljes költségének jelentős csökkentését is eredményezheti. Ezért e folyamat során az innováció bevezetése – új technológiák és sikeres gyakorlati módszerek alkalmazásával – komoly értéket adhat a gyártók számára.
A National Instruments egyedülálló előnnyel rendelkezik ezen a területen, mivel évente harmincezer különböző társaságnak értékesít teszt- és méréstechnikai hardvert és szoftvert. Az évek során számos kiemelt vásárlóval olyan globális szabványosítási projekteken dolgozott együtt, amelyek a tesztelés áteresztőképességének növelésén kívül segítettek csökkenteni a tesztelés teljes költségét. Ezen túlmenően globális és helyi tanácsadó csoportokat is létrehozott, ahol vezető mérnökökkel szorosan együttműködve kap visszajelzéseket, megvitatja a technológiákat és a fejlesztések irányát. Ennek a munkának az eredménye egy automatizált teszt szemléletmód (Automated Test Outlook), amelyet megoszt a nyilvánossággal, és amely jelentős mértékben befolyásolja, hogy a National Instruments mire fordítja 160·millió dolláros K+F költségvetését.
Virtuális műszerezés
Mielőtt előre tekintenénk, szeretnék visszalépni egy kicsit, és ismertetni azt az elmúlt években kialakult trendet, ami a hagyományos műszerezésről a virtuális műszerezésre – vagy szintetikus műszerezésre – (a Frost & Sullivan 2006-os, szintetikus műszerezésű tesztberendezésekről szóló jelentése alapján) való áttérést jelentette. A hagyományos műszerek fix, a gyártó által meghatározott funkciókkal rendelkeznek, az alapelemek – mint pl. a mikroprocesszor, az operációs rendszer, a firmware és a mérési alrendszerek (I/O) – nem változtathatók. A virtuális műszerek hasonló építőelemeket használnak, mint a hagyományos műszerek, azonban – az alapelemek kötöttségével ellentétben – új funkciók adaptálásával és a teljesítmény növelésével lehetővé teszik az I/O-modulok tetszőleges cseréjét, újrakonfigurálását és az aktuális funkcionalitás szoftveres definiálását. Ez olyan nyílt architekturális megközelítés révén lehetséges, amely egy könnyen kezelhető grafikus szoftverből, moduláris I/O-eszközökből, valamint olyan platformból áll, amely szinkronizációs, időzítési és triggerelési lehetőségeket tesz lehetővé.
Mint azt már említettük, napjaink elektronikus eszközeinek összetettsége miatt mind a funkcionalitás, mind a teljesítmény tekintetében a tesztrendszereknél szükséges megteremteni a gyors és gyakori adaptáció lehetőségét. Olyan tesztrendszerek építésénél, amelyek képesek lépést tartani a folyamatosan növekvő elvárásokkal, a virtuális műszerezésű megközelítés bizonyult az egyetlen járható útnak. Ez pontosan az a moduláris architektúra, amely lehetővé teszi olyan hardver- és szoftverelemek upgrade-jét és cseréjét – mint pl. a mikroprocesszor, a RAM és a mérési I/O-k, valamint az alkalmazói szoftver – annak érdekében, hogy megfeleljen a változó teljesítmény- és mérési követelményeknek. A virtuális műszerezést alkalmazva több cég is (Hella AG, Thales Communications Inc. és Harris Corp.) az áteresztőképesség növelése és a tesztrendszer üzemeltetési összköltségének csökkentése révén jelentős megtakarítást ért el a tesztelés teljes költségében.
A National Instruments előrejelzése szerint az elkövetkezendő években az alábbi trendek jelentős mértékben befolyásolhatják az automatizált tesztrendszereket.
A tesztrészleg szervezeti integrációja
Az egyre összetettebb termékek rövidebb életciklusa és az árak csökkenése a háttérben arra kényszeríti a gyártókat, hogy „kivonják” a költségeket a termék életciklusából és rövidítsék a piacra lépéshez szükséges időt.
A teszteléssel kapcsolatban úgy látjuk, hogy ez a folyamat a termékvalidáció és a gyártósori teszt szorosabb integrációja révén történik meg. A termékvalidáció a tervezés során végrehajtott teszteljárás, amely garantálja, hogy a termék megfelel a specifikációban leírtaknak, míg a gyártósori teszt a teljes funkcionalitás ellenőrzését jelenti, mielőtt a termék elhagyja a gyárat.
Az egyre szorosabb fejlesztési ütemtervek tarthatósága érdekében a gyártósori tesztrészleg munkatársait be kell vonni a fejlesztés folyamatába. Hasonlóképpen, a gyártósori tesztrendszereket használva a validációs tesztrészlegnél is több időt fordítanak a tervezési hibák javítására. A két részleg között kialakult kapcsolat révén a tesztelési eljárások gyorsabb fejlesztésével és a minőség növelésével csökkenthető a piacra lépéshez szükséges idő. A második változás technikai jellegű. A validációs és gyártósori tesztberendezések a múltban jelentősen különböztek egymástól. Azonban a két csapat között használható magasabb fokú automatizálás rámutatott arra, hogy a validációs és a gyártósori részleg szoftverei és műszerei megoszthatók egymással. A szervezetek tehát – a két részleg közti közös platform használatával – a szükséges tartalékműszerek számának csökkentésével, az összevont oktatások szervezésével és beszerzéskor a mennyiségi kedvezmények kihasználásával csökkenthetik költségeiket. Annak ellenére, hogy sok csapat szeretné integrálni e két részleg munkáját, kevesen tudják, hogyan kezdjenek hozzá. A legjobb megoldásokat kereső, ún. „best-in-class” szemléletet követő szervezetek megállapították, hogy nem csak egyetlen jó megoldás létezik a sikeres integrációra. Ezeknek a fázisoknak az integrációs fejlesztése az embereket, a folyamatokat és a technológiát átívelő stratégiát igényli. Itt a virtuális műszerezés modularitása és rugalmassága olyan közös tesztplatformok és rutinok kifejlesztését teszi lehetővé, amelyek megoszthatók a validáció és a gyártás között.
Példaként említjük, hogy az Analog Devices Inc.-nél az új MEMS-tesztrendszer fejlesztésének eredményeként az eszközök árában 11-szeres költségcsökkenést értek el. A méret csökkenése 15-szörös, a súlyé 66-szoros volt, valamint 16-szoros csökkenést realizáltak az energiafelhasználásban. A gyártáson kívül más fázisokban is ugyanezt a rendszert használják, pl. a tervezés, a karakterisztika-ellenőrzés vagy a méréstechnika területén. Ez csökkenti a piacra lépéshez szükséges időt és tovább javítja a termékek minőségét.
Többrétegű rendszerszoftver
A növekvő modularizációval és a tesztrendszerek újrafelhasználásával a legtöbb, manapság használt rendszer esetén a szoftverfejlesztés költsége az eszközök árához képest gyakran kétszer, tízszer magasabb költséget jelent. Jól tükrözi ezt a tendenciát, hogy sok tesztmérnöki tevékenységgel foglalkozó cég több szoftvermérnököt foglalkoztat, mint hardvermérnököt. A növekvő szoftverfejlesztési költségekre és a felgyorsult fejlesztési ciklusra reagálva megállapítható, hogy napjaink piacvezető vállalatai beruházásaik maximális élettartama és újrafelhasználhatósága érdekében az összetett, többrétegű rendszerszoftver tervezésére helyezik a hangsúlyt.
A rendszerszoftver távlatából nézve a legtöbb vállalat eltávolodik az egyrétegű szoftverektől, amelyek gyakran fix, konstans kódokat és közvetlen műszerkezelő hívásokat tartalmaznak. Megoldásként a tesztmenedzser szoftver, az alkalmazásszoftver és a driverszoftver számára moduláris szoftvereket keresnek különálló, mégis szorosan integrált elemek formájában. Az ilyen típusú, réteges felépítésű rendszerszoftver minden szinten és területen segíti a mérnököket a standardizált, az ún. „polcról levehető” COTS-eszközök és a „házon belüli” eszközök közti választásban, valamint az optimális eszközök használatában. Kulcsfontosságú trendként kell figyelembe venni a modularitás kiterjesztését a rendszerszoftver minden rétegére, amibe bele kell érteni a folyamatmodelleket, a kódmodul könyvtárakat és a hardverleíró könyvtárakat is.
A tesztmenedzsment szoftver határozza meg az automatizálás magját és a tesztrendszer szekvenciáinak áramlását. A folyamatmodell technológiája kritikus jelentőségű a tesztmenedzsment rétegen belül, mert az a szerepe, hogy elkülönítse a „tesztjellegű taszkokat” a „nem tesztjellegű taszkoktól”. Segítségével a mérnökök könnyen standardizálhatják és vezérelhetik a „nem tesztjellegű taszkokat” a különböző tesztszekvenciák és -állomások között. A „nem tesztjellegű taszkok” tartalmazzák a vállalati kapcsolatok nagy részét adatbevitelre, minőségirányítási adatbázisban naplózáshoz, üzemi kommunikációra és a lekérdezhető tesztriportok generálásához. Ezzel a moduláris keretrendszerrel a vállalatok létrehozhatnak néhány folyamatmodellt, amelyeket akár több száz különböző termékvonalnál is alkalmazhatnak.
A Thales Communications cégnél pl. létrehoztak egy automatizált tesztelési keretrendszert, amely tartalmazza a hardverleíró réteget. Ezzel a megoldással a keretrendszer rugalmassága lehetővé teszi különböző teszthardver-konfigurációk összeállítását anélkül, hogy meg kellene változtatni a szoftverkódot.
Heterogén rendszerek
A cikk elején már szó volt a Moore-törvényről. A törvény egyik következménye, hogy a tesztrendszerek olyan nagy mennyiségű adatot hoznak létre, amelyet már nem lehet egyetlen feldolgozóegységgel analizálni. Csak körbe kell nézni a „nappaliban”, és láthatjuk, hogy ma már nem ritkaság a 3D HD TV, amelyek ára jelentősen csökkent az elmúlt években, és már tömegtermelésben gyártják őket. Egy 3D HDMI TV-jel referenciajellel (golden signal) történő, valós idejű összehasonlításához másodpercenként 3 Gigabitnyi adaton kell elvégezni a bithibatesztelést.
Ezeknek az igényeknek a kielégítésére a mérnökök a heterogén számítógépes architektúrák felé fordultak, annak érdekében, hogy eloszthassák a feldolgozás és analízis feladatait. A heterogén számítógépes architektúra olyan rendszer, amely elosztja az adatokat, feldolgozást és a programvégrehajtást különböző „számítási csomópontok” (feldolgozó, végrehajtó egységek) között, amelyek mindegyike az adott számítási feladat elvégzésére a legalkalmasabb. Pl. egy heterogén architektúrájú RF-tesztrendszer tartalmazhat egy CPU-t, amely a programvégrehajtást vezérli; egy „inline demodulációt” végző FPGA-t és egy olyan GPU-t (Graphics Processing Unit), amely összehasonlítja az adatokat egy mintával (pattern matching), mielőtt az eredményeket egy távoli szerveren rögzíti. A tesztmérnökök feladata az optimális feldolgozás és adatátvitel érdekében a csomópontok legmegfelelőbb használatának meghatározása és az architektúra-rendszer megtervezése. A tesztrendszerek leggyakoribb feldolgozóegységei a következők:
-
A központi feldolgozóegység (CPU) egy általános célú processzor kiterjedt utasításkészlettel, cache-el, valamint közvetlen memória-hozzáféréssel. Szekvenciális működésű, különösen program végrehajtásra alkalmas és szinte bármilyen feldolgozási feladatra használható. Az elmúlt évtized fejlesztései lehetővé tették egyetlen csipen több processzormag elhelyezését. A legtöbb processzor 2-4 maggal fut, de a jövőben még több mag elhelyezését tervezik egyetlen szeleten. Ezek a többmagos rendszerek lehetővé teszik a műveletek párhuzamos végrehajtását, de a rendszer nyújtotta összes előny kihasználásához és a programozók többszálas alkalmazásaihoz szükséges a megfelelő utasítások implementációja.
-
A grafikus feldolgozó egység (GPU) egy speciális processzor, amelyet eredetileg 2D és 3D számítógépes grafikák számítására és megjelenítésére fejlesztettek ki, de hatalmas fejlődésen ment át, mivel a számítógépes videojátékoknál egyre élethűbb grafikára volt szükség. A GPU kifejezetten vektor- és „shader”-transzformációk számítására alkalmas, és több száz vagy ezer magot tartalmazó párhuzamos architektúra segítségével éri el ezt a nagy teljesítményt. A mérnökök ezeket a specializált számításokra alkalmas magokat általános számításokra is felhasználják, hiszen a teljesítménynövekedést már megfigyelhették a képfeldolgozás és a spektrális megfigyelés területén.
-
A programozható kapuáramkör (FPGA) a CPU-któl és GPU-któl eltérően nem előre meghatározott utasításkészlettel vagy számítási képességekkel, hanem újraprogramozható, szilíciumalapú logikai kapukkal rendelkezik, amelyekből pontosan az igényeknek megfelelő egyedi processzort „építhetnek” a felhasználók. Ezen túlmenően hardveres időzítésű végrehajtási sebességet nyújt, amely magas fokú determinizmust és megbízhatóságot eredményez, továbbá különösen alkalmassá teszi ezeket az eszközöket közvetlen jelfeldolgozásra és rendszervezérlési célokra. Ez a nagyobb teljesítmény azonban kompromisszumokkal jár: bonyolultabb a programozása és a feldolgozási funkciók nem változtathatók a programvégrehajtás közben.
Az NI LabVIEW-hoz hasonló grafikus fejlesztői környezetek képesek leképezni a bonyolultabb összefüggéseket is, és egy egységes tervezői felületet nyújtanak a hardver platformok és fejlesztési célok széles skáláján.
„IP to the PIN”
Ez az egyik legnehezebben megérthető koncepció, ami arra a tényre utal, hogy egyre több és több rendszert alakítanak ki egyetlen csipen (SOC – System on a Chip). Tekintsük pl. az Atheros cég 802.11n WLAN csipjét, amely adó-vevőket, konvertereket, szűrőket, kapcsolókat és egy processzort, továbbá az SOC szoftveres szellemi terméket (IP – Intellectual Property) is tartalmazza (pl. kódolást, modulációt, titkosító és kommunikációs protokollokat). A magas fokon integrált hardver és szoftver szubkomponensek funkcionalitásának teljes validálásához a mérnököknek rendszerszintű tesztelési képességekre van szükségük ahhoz, hogy hatékonyan emulálhassanak egy másik kommunikációs eszközt (pl. egy bázisállomást) a rendszerben.
A kihívás könnyebben megérthető, ha visszalépünk egyet, és megnézünk egy olyan iparágat, amelynek hasonló trenddel kellett szembenéznie – ilyen pl. az autóipar. Itt gépjárművekkel, motorokkal, erőátviteli egységekkel vagy karosz-
széria-alkatrészekkel találkozhatunk, az alrendszerek egyike pedig lehet a motorvezérlő egység (ECU – Engine Control Unit). Ahhoz, hogy a gépkocsiba történő beszerelés nélkül is ellenőrizni lehessen az ECU-t, az autóipari mérnökök kifejlesztettek egy olyan teszteljárást, amellyel szimulálják azt a környezetet, ahol az alrendszernek működnie kell majd. A szimuláció létrehoz egy valósidejű gerjesztést, és a tesztrendszer validálja, hogy az ECU megfelelő választ ad-e a gerjesztésre. Ez költséghatékony és megbízható módszernek bizonyult a beágyazott rendszerek tesztelésére és validálására. Ezt a módszert gyakran Hardware-In-the-Loop (HIL) validációs tesztként említik.
De mit tegyünk akkor, ha a teljes rendszer egyetlen csip?
Szükséges, hogy képesek legyünk a csipen lévő alrendszereket szoftveresen implementálni azért, hogy a valóságot legjobban megközelítve szimulálhassuk az SOC-t. A National Instruments 2008-ban adta ki az NI FlexRIO-t – ami tulajdonképpen egy integrált FPGA-csippel ellátott moduláris műszercsalád. Ez az elgondolás lehetővé teszi a nagyteljesítményű tesztrendszerek tervezői számára, hogy egyedi műszereket fejlesszenek nagymértékben integrált alrendszerek valós körülmények közti tesztelésére. A példák között nagysebességű Ethernet, nagyfelbontású video és nagysebességű kamera link interfészekhez készült rendszerek szerepelnek. Az eljárás további előnye az FPGA IP tervezés és tesztelés közötti újrafelhasználhatósága, ami drámaian csökkenti a tervezési validálás idejét, javítja a gyártósori tesztelés idejét és a hibakeresést.
A piaci váltás az újrakonfigurálható architektúrák felé lehetővé fogja tenni a tervező- és tesztmérnökök számára, hogy azonos absztrakciós szinten dolgozzanak. Ez kulcsfontosságú lépés a versenyképes rendszerszintű tervezés és tesztelés megvalósításához.
Zárásképp szeretnék visszatérni Moore-törvényéhez, mivel ez a mozgatórugója sok olyan trendnek, amely kihívások elé állítja a terméktervező- és tesztmérnököket, illetve lehetővé teszi, hogy a termékek egyre gyorsabbak, összetettebbek és olcsóbbak – ezzel egy időben a tervező- és teszteszközök pedig még fejlettebbek legyenek. A virtuális műszerezés alapvetően Moore-törvényének hullámait meglovagolva kihasználja a legújabb technológiákat (FPGA-k, a többmagos processzorok és a gyors számítógépes buszok). Az NI LabVIEW-hoz és a PXI-hoz hasonló platformok több ezer cég számára tették lehetővé, hogy gyorsabb és olcsóbb tesztrendszereket építsenek, amelyek moduláris, méretezhető architektúrájuk miatt a jövőben is helytállnak az új technológiák és tesztelésre váró funkciók tekintetében.
További információ:
National Instruments Hungary Kft.
2040 Budaörs, Puskás Tivadar utca 14. 1. emelet
Tel.: +36 23 448-900
Fax: +36 23 501-589
E-mail:
Ingyenesen hívható telefonszám: 06 80 204 704