affidabilità dell'elettronica

l'elettronica rappresente per i profani una scienza di estrema precisione. Cos=EC non =E8 difficile imbattersi in frasi del tipo: "l'elettronica non sbaglia", oppure "l'elettronica =E8 perfetta". Tuttavia, a dispetto dei sistemi elettromeccanici privi di elettronica, quei sistemi basati sull'elettronica pur essendo pi=F9 performanti durante il loro normale funzionamento, possono avere problemi non indifferenti in caso di guasto: spesso infatti =E8 molto oneroso in termini di costi e di tempi la riparazione di schede elettroniche (occorrono centri specializzati e talvolta, soprattutto ora che i componenti che vanno per la maggiore sono gli smd e spesso conviene sostituire integralmente la scheda). Chiunque abbia una minima conoscienza di elettrotecnica ed elettronica sa invece che i sistemi elettronici lavorano con una certa tolleranza ed essendo nella maggioranza dei casi dei sistemi abbastanza complessi e composti da numerosi componenti, possono guastarsi facilmente (o detto in maniera diversa, =E8 sufficiente il danno ad uno o pochi componenti per alterare il corretto funzionamento dell'intero sistema). Dopo questa generica riflessione, volevo porvi alcune domande: quali sono le principali cause di guasti dei sistemi elettronici (intesi come schede pcb)? Trattasi di variabili elettriche intrinseche del circuito o piuttosto di variabili ambientali esterne (vedi temperatura, urti, ecc..)? Statisticamente sono pi=F9 affidabili i sistemi digitali oppure quelli analogici? Quelli tradizionali oppure quelli con componenti smd? Quelli a logica cablata o quelli a logica programmata? Ed infine, quali strategie si prendono in fase di progettazione e montaggio per garantire una maggiore affidabilit=E0 dei sistemi elettronici?

Reply to
elagogo
Loading thread data ...

Caspita quante domande...

"elagogo" ha scritto nel messaggio news: snipped-for-privacy@75g2000cwc.googlegroups.com...

Principalmente variabili esterne. Una cattiva alimentazione può danneggiare seriamente il circuito e infatti gli alimentatori di un certo livello sono abbastanza difficili da progettare. Poi sicuramente il surriscaldamento (soprattutto nei componenti di potenza). Inoltre gli ossidi che si formano sulle piste delle schede o delle saldature di qualità scadente possono essere causa di guasto. Un altro pericolo è la perforazione del dielettrico nei mosfet a causa dell'elettricità statica. Infine (ma succede per errore umano) i condensatori elettolitici scoppiano se montati a rovescio.

I sistemi digitali sono più affidabili e decisamente meno sensibili alla deriva dei componenti o alle variazioni ambientali perchè l'informazione non è contenuta direttamente nel segnale ma il segnale è solo il veicolo di essa. Pertanto piccole alterazioni del segnale raramente causano il malfunzionamento. Inoltre quando il segnale è compromesso il sistema si blocca ed è "facile" individuare il guasto, mentre i sistemi analogici continuano a funzionare dando risultati sbagliati (esempio ho visto sonde di temperatura che in piena estate segnano -35°C). Che la logica sia cablata o programmata non c'entra niente nell'affidabilità. Quello è un problema essenzialmente algoritmico/implementativo: se un'istruzione è concepita male non funzionerà e basta indipendentemente da come il sistema la svolga.

Ci sono interi libri su questo argomento. Si fanno test meccanici ed elettrici su prototipi, si fanno centinaia di simulazioni al pc (ci sono schiere di ingegneri che di mestiere creano i modelli matematici dei componenti), si sottopongono i componenti a stress per vedere fin quando reggono e si varia il valore dei componenti un po' per volta per valutare le tolleranze. Se vuoi saperne di più troverai centinaia di libri in merito. E ricorda sempre: "No reliability, No businness"

Reply to
Franco

elagogo ha scritto:

Esattamente le stesse che si adottano in meccanica, per esempio: si tiene un margine di sicurezza capace di 'assorbire' variazioni dovute alla tolleranza dei componenti, deriva per invecchiamento e un certo grado di sforzi continui o occasionali. Un'analisi statistica, collegata ad una batteria di test su scala pi=F9 o meno vasta, contribuisce a quantificare il tempo medio di buon funzionamento. E' ovvio che il costo di un manufatto dipende in maniera molto pesante da quanto =E8 grande il margine di sicurezza che viene considerato, quindi si deve fare un compromesso tenendo anche in conto di quale sar=E0 la durata di vita richiesta all'apparecchio e le condizioni ambientali in cui esso va ad operare. Non serve a nulla progettare un alimentatore per calcolatore di modo che abbia una vita media di 100 anni quando un modello di computer vecchio di 10 =E8 considerato preistorico e gettato nella spazzatura. Costerebbe enormemente pi=F9 caro e, in ultima analisi, non lo comprerebbe nessuno. Un elemento che incide moltissimo sulla durata di vita media di un componente =E8 la temperatura. Pi=F9 un componente =E8 caldo, pi=F9 la sua vita media =E8 statisticamente pi=F9 bassa.

Reply to
Darwin

perforcosa???

ora???

o_O

Dipende dall'uso che ne fai. A parita' di condizioni fisiche, la la variabile predominante e' la sfiga. Dato che essa non e' facilmente controllabile, prega e tratta bene le tue apparecchiature elettroniche.

Reply to
Valeria Dal Monte

Un bel giorno elagogo digitò:

Esatto, e questa è la principale tecnica per aumentare l'affidabilità dei nuovi dispositivi: ridurre al minimo il component count, integrando tutto il più possibile. Ogni singola resistenza contribuisce a ridurre il MTBF.

Guarda a tale proposito questo interessante documento della Tri-M, una delle poche aziende a pubblicare l'analisi disaggregata dell'MTBF dei suoi dispositivi:

formatting link

Credo che considerando qualunque sistema, la gran parte dei guasti siano provocati dalle interconnessioni e in generale da tutti i componenti elettromeccanici (relè, interruttori...). Seguono poi i componenti di potenza.

La regola aurea è che si romperà meno quello che si è sempre rotto meno. Un vecchio detto recita: "il meglio è nemico del bene". :)

Lo puoi vedere nei campi in cui l'affidabilità totale è l'obiettivo numero uno (avionica, aerospaziale...). Prima di deliberare l'introduzione di un nuovo componente servono anni, se non decenni. Credo che buona parte dell'elettronica degli shuttle sia derivata direttamente dai progetti originali, e probabilmente nel Saturn V c'erano ancora componenti che Von Braun usava nelle V-2 per bombardare allegramente Londra. :)

--
asd
Reply to
dalai lamah

dalai lamah ha scritto:

Se non ricordo male, quando indagava sul disastro del Challenger, R. P. Feynman si stupiva che nel 1986 lo Shuttle montasse ancora le memorie a nuclei di ferrite, allora gi=E0 passate di moda da almeno dieci anni. Non so come sia la situazione attualmente, mi sembra di aver sentito che queste memorie sono molto meno sensibili ai raggi cosmici, micidiali fonti di errori alle quote in cui lavora lo Shuttle.

Reply to
Darwin

Un bel giorno Darwin digitò:

Secondo wikipedia nel 1990 c'è stato l'unico aggiornamento dei sistemi di volo:

formatting link

Dopo vent'anni hanno "ben" triplicato sia la memoria che la potenza di calcolo, alla faccia della legge di Moore. :) Però almeno hanno sostituito le memorie a nuclei di ferrite con della SRAM, evidentemente le conoscenze sulle memorie a semiconduttore (che immagino in quel momento fossero già usate da decenni nell'aeronautica civile) furono considerate sufficienti.

--
asd
Reply to
dalai lamah

Il giorno 24 Aug 2006 15:22:30 -0700, "Darwin" ha scritto:

Mah, i raggi cosmici ad alta energia arrivano anche alle quote più basse, seppur in quantità molto ridotta. Se facessero tutti questi danni ce ne accorgeremmo anche noi, almeno credo.

-- ciao Stefano

Reply to
SB

SB ha scritto:

e, seppur

o=2E

Beh, e difatti sono sorgenti d'errore che bisogna tenere in conto. Conosco una persona che sta finendo un dottorato sull'architettura di un sistema operativo 'mission critical' capace fra l'altro di riconoscere e correggere errori di questo tipo.

Ah, Dalai Lamah, grazie delle informazioni.

Reply to
Darwin

Ciao Valeria Dovresti raccontare all'amico che un buon progettista calcola il famoso MTBF (mean time between failure) tempo medio fra guasti ,assegnando ad ogni componente la sua probabilita' di rottura,nelle condizioni di uso , come indicato nelle apposite tabelle del Controllo Qualita'. Cosa che credo tu faccia regolarmente.

Regola: il componente che non si rompe mai... e' quello che non c'e' !!!

Ciao Giorgio

P.S. Chissa' se la foratura di una ruota rientra nel MTBF della Graziella !! Stavo per chiedere lo stato di "Calamita' naturale" perche' in villeggiatura, nessuno si sporca le mani a mettere una pezza alla camera d'aria !!! (Bertolaso non si e' visto !!) Mi sono portato a Genova la ruota...e mi sono sporcato le mani ,...da ing. ruspante e non d'allevamento !!

--
non sono ancora SANto per e-mail
Reply to
giorgiomontaguti

ah ah ah ah ah! povero Moore...gli unici a non volergli dare ragione sulla crescita esponenziale del numero di transistor in uno stesso chip sono stati quelli della Nasa...mah!

saluti

Samurai

--
questo articolo e` stato inviato via web dal servizio gratuito 
http://www.newsland.it/news segnala gli abusi ad abuse@newsland.it
 Click to see the full signature
Reply to
Samurai

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.