Problem z niezawodnością chip-ów

Ciekawy artykuł o niezawodności chip-ów:

formatting link
Wszystko schodzi na psy...

Reply to
pytajacy
Loading thread data ...

Zawsze mnie to zaskakiwało, że nawet ye starsze technologie układów scalonuch potrafią (jako bardzo delikatna struktura ) pracować dziesiątki lat bez problemu. Czyli jednak idzie ku zmienie..

Reply to
Marek

pytajacy zauważył:

Racja, w takiej sytuacji trzeba polegać na watchdogu.

Reply to
Jarosław Sokołowski

Gógiel zwraca takie coś: Niezawodność chipów DRAM jest ~5,5x gorsza w DDR4 w porównaniu do DDR3. Procesory AMD EPYC™ drugiej generacji z AMDC zostały zaprojektowane w celu złagodzenia tego problemu poprzez korygowanie błędów ...

formatting link
Co jeszcze piszo na b2b:

- Koniec ery rezonatorów kwarcowych

Polimeryzowałbym:)

formatting link
Klepali my o tym, 2 footprint`y na pcb lepsze niż jeden:)

Reply to
alojzy nieborak

W dniu 13.03.2024 o 23:11, alojzy nieborak pisze:

urządzenie będzie działać laaatami... Bo jak na razie nic tego nie zapowiada a wręcz się jeszcze bardziej napędza przez konsumpcjonizm, postęp, chęć zysku itd. Samo napędzająca się spirala.

Reply to
pytajacy

W przypadku elektroniki to jednak nie tyle konsumpcjonizm, co prawo Moore'a. Jeśli tworzysz jakiś produkt i wraz z upływem czasu dostajesz coraz więcej mocy obliczeniowej za te same pieniądze, to dlaczego nie wykorzystać tego w kolejnej generacji? Z punktu widzenia konsumenta wygląda to podobnie. Teoretycznie nadal można by grać w "Super Mario" na Pegasusie albo "Deus Ex" na Play Station 2. Tylko skoro jest taka możliwość, to czemu nie kupić nowego sprzętu, który pozwoli na odpalenie "Wiedźmina" albo "Cyberpunka"? Wydawcy oprogramowania siłą rzeczy nie będą w stanie wspierać wszystkich "historycznych" platform i skupią się na rozwijaniu softu na te nowe, więc co jakiś czas trzeba będzie odświeżyć swoją konfigurację.

To znaczy tak to wyglądało przez kilkadziesiąt ostatnich lat, ale powoli przestaje. Prawo Moore'a powoli zwalnia. Widać to chociażby po ostatnich dwóch generacjach konsol. Ósma ma już ponad dekadę, a ciągle wychodzą na nią nowe tytuły.

Reply to
Atlantis

Atlantis napisał:

Super Mario, i ten drugi gruby, już nie dostaną tej zabawki.

Reply to
Jarosław Sokołowski

Jakby nie patrzeć, to nie jest coś, co byłoby mocno narażone na zużycie. Struktura leży sobie zabezpieczona obudową i nie posiada żadnych elementów ruchomych. Nawet pod względem termicznym nie jest narażona na skrajne warunki - to nie jest żarówka czy lampa elektronowa, gdzie poprawna praca wymagała temperatur, które prowadziły do powolnej, ale nieuniknionej degradacji elementu. Do tego technologia CMOS mocno ograniczyła emisję temperatury przez elektronikę.

No i im starsze układy, tym bardziej "toporne" - grubsza ścieżka, większy odstęp napięć pomiędzy zerem i jedynką. Współczesne mikroprocesory i układy graficzne znajdują się przecież w pobliżu granicy możliwości technologii fotolitografii.

Reply to
Atlantis

pytajacy pisze:

W sumie korekta błędów w komputrach ma 70 lat :) Więcej danych/połączeń/podzespołów to i korekta musi być lepsza.

Połączenia raz działające i za chwilę już niedziałające jak da mnie zawsze były paskudne do diagnozy. Pomaga omomierz z zakresem 2 om i rozdzielczością 1 mili om.

Na poziomie połączeń przelotka-ścieżka/pad-kompnent to to się w dużej części rozwiązuje przez umieszczenie zmontowanych płyt w komorach termicznych i jedzie z temperaturą w dół i górę kilka razy. A jak testują krzem, tego nie wiem.

Reply to
alojzy nieborak

Niektóre potrafią, inne nie. Mam stary rosyjski budzik, w którym układ padł sam z siebie. Układy ULA w Spectrumach też nie były specjalnie trwałe.

Reply to
Arnold Ziffel

No tak. Tylko co jak klient nie chce nowej generacji, bo stara mu wystarcza? Fajnie gdyby sprzęt działał jak najdłużej, a nie zgodnie z planowanym postarzaniem.

Reply to
Arnold Ziffel

To chyba wynikało z technologii produkcji. Jeśli dobrze pamiętam, ULA nie była ASIC-iem robionym na zamówienie. To była uniwersalna struktura krzemowa z zestawem bloków logicznych, na którą potem nanoszono kolejną warstwę, zawierającą połączenia między nimi. Coś w rodzaju CPLD/FPGA, tylko programowanego w fabryce i na trochę niższym poziomie. ;)

Poza tym no cóż... Nic nie jest niezniszczalne. Przyczyn może być wiele: ukryta wada fabryczna, która w końcu da o sobie znać po latach, przepięcie, wysokoenergetyczna cząstka, albo po prostu entropia... :)

Reply to
Atlantis

A klient zapłaci za równoległe rozwijanie oprogramowania na kilka różnych wersji platformy, a także jego optymalizację z myślą o odpalaniu na wariancie sprzętowym sprzed kilkunastu lat? Nie? No to klientowi pozostaje biblioteka gier, jakie wyszły na daną platformę. Póki co na szczęście nie ma problemów z uruchamianiem fizycznych wydań na sprzęcie, który nie jest już wspierany. Dystrybucja cyfrowa to zupełnie inna sprawa...

Teraz i tak sytuacja dość mocno zmieniła się na lepsze, bo tak do siódmej generacji konsole bardzo mocno różniły się od siebie sprzętowo, a tworzenie gier było sztuką wymagającą znajomości sprzętu i związanych z nim narzędzi programistycznych. Dzisiaj zarówno Sony jak i Microsoft postawiły na bardziej "pecetowe" architektury, a gry powstają w kilku najpopularniejszych silnikach.

No i właśnie w przypadku konsol do gier narracja o planowanym postarzaniu trochę się sypie, bo gdyby producenci chcieli, to spokojnie mogliby uwalić ósmą generację już kilka lat temu. Tylko najwyraźniej im się nie chce, bo nowe tutuły na PS4 czy XBox One ciągle wychodzą, chociaż z każdą chwilą jest ich coraz mniej (ale to przede wszystkim decyzja deweloperów, zresztą bardziej ambitnych produkcji nie dałoby się już upchnąć w hardwarze sprzed ponad dekady).

No i jest jeszcze ta kwestia, że obecnie przyrost mocy obliczeniowej nie daje już tak spektakularnych efektów, jak kiedyś. Z chwilą przeskoku PSX->PS2 czy PS2->PS3 różnica w grafice była oczywista. Dzisiaj gra wygląda lepiej, ale żeby zobaczyć tę różnicę nieraz trzeba obejrzeć film z porównaniem tych samych scen. Albo liczyć FPS-y. ;)

Reply to
Atlantis

Pan Arnold Ziffel napisał:

To nie jedna z tych legend miejskich? W telekomunikacji już jakiś czas temu zmieniło się podejście do błędów. Kiedyś obowiązywał paradygmat, że w transmisji cyfrowej odstęp sygnału od szumu ma być wielki, każdy bit musi przejść bez błędu. Teraz pcha się tyle danych, tak szybko, żeby dobić do granicy, gdzie błędy się pojawiają, ale w ilości kilku procent. Pcha się bity nadmiarowo, a potem koryguje matematycznie. No i jak kiedyś telefonicznym drutem szło 300 bitów na sekundę, to teraz sto megabitów.

W półprzewodnikach dzieje się podobie. Pierwszy był Clive Sinclair, który do komputera ZX Spectrum wkładał pamięci RAM 64k z uszkodzoną komórką, które dobrze sprawdzały się jako 32k. Dzisiaj każda pamięć RAM jest "uszkodzona", projektuje się nadmiarowe wieresze i kolumny, a gdy na ich przecięci trafi się uszkodzona komóra, wyłącza się cały wiersz i całą kolumnę.

Jest opowieść o tym, jak panowie inwestorzy zapytali pomysłodawcę mikroprocesora, co będzie, gdy coś w nim się zepsuje? -- No to się go wyrzuci, nikt nie będzie układu scalonego naprawiał. -- Ha, ha, ha, wyrzucać lekko uszkodzony komputer, dobre sobie! No a teraz jesteśmy na dobrej drodze do tego, by psujące się procesory mogły się same naprawiać, wykorzystując do tego włożone im w fabryce do środka części zamienne.

A "planowe postarzanie"? Jeśli już, to łatwiej zrobić je programowo.

Jeszcze jedno mi się przypomniało w związku ze "starymi generacjami". W latach '90 robiliśmy diwajs, w którym był mikrokontroler z pierwszą generacją pamięci flash. Niewiele jej tam było, ale chodziło tylko o zapamiętanie ustawień, program był w innym miejscu. Działała tak, że zapis trzeba było robić w kilku miejscach, a przy odczytywaniu wynik ustalać w drodze głosowania.

Jarek

Reply to
Jarosław Sokołowski

Prawie, bo jednak tej stopy błędów nie udało się uniknąć.

Skoro można, to się robi.

Ale to nie tylko dlatego. Jak widac - kiedys tym drutem też mogło isc 100MB (raczej 20), tylko sprzętu nie było :-)

32k dobre !

Aczkolwiek jak można w historii doczytać "rtęć z rur wyciekała, więc powstał sytem zarządzania pamięcią, aby nie tracic przy tym danych". Na długo przed spektrum.

DRAM/SRAM tez? Moze i też, bo az się prosi.

A ekrany LCD jak się robi? Bo złych pikseli nie widać.

486SX :-)

No widzisz - a piszesz, ze kiedyś było lepiej :-)

Nie skopaliscie czegos? w latach 90-tych to juz powinno działac dobrze ...

J.

Reply to
J.F

W dniu 14.03.2024 o 00:15, pytajacy pisze:

To mowisz, ze w twoim swiecie klon IBM PC AT z lat 80 byl bardziej niezawodny niz dzisiejsze PC z np. i9?

Reply to
Ghost

Pan J.F napisał:

Te przede wszystkim.

Starannie.

Ja?! Gdzie? Owszem, uważam, że pewne rzeczy wcześniej działały lepiej, jednak nie generalizuję.

formatting link
In 1993, the introduction of EEPROM memory allowed microcontrollers (beginning with the Microchip PIC16C84) [...] The same year, Atmel introduced the first microcontroller using Flash memory, a special type of EEPROM.

To były absolutne początki. Działało tak sobie.

Reply to
Jarosław Sokołowski

W dniu 14.03.2024 o 18:54, Ghost pisze:

Aż tak to nie. Ale padł mi dysk SSD Crucial (pisałem tutaj o tym). Niby nic bo na gwarancji jeszcze był, ale zanabyłem w zamian Samsunga z 5 letnią gwarancją. Kupiłem PS4 w 2014 roku i okazał się z błędem systemowym, nie dało się grać - wymieniłem na PS3. Takie przykłady z brzegu, gdzie rozwiązanie tych problemów kosztowało mnie trochę zachodu i nerwów (PS4 nie chcieli przyjąć w Media Markt).

Reply to
pytajacy

W dniu 2024-03-14 o 18:40, J.F pisze:

Gdybam. Matryce LCD powstały wcześniej od urządzeń do ich optycznej kontroli? Pierw sprawdzali "na oko", a teraz automatem?

formatting link
I z różnymi specjalizacjami, do pikseli jedno ustrojstwo, do łączeń jak nie patrzeć prawie transparentnych drugie urządzenie. Do tego trza jaki akuratny obiektyw skonstruować i elektronikę która to to obrobi.

Systemów/firm jak poniżej masz na świecie kilka.

formatting link

Reply to
alojzy nieborak

Tutaj zaryzykowałbym stwierdzenie, że dobrze zrobione klony PC AT z lat osiemdziesiątych mogły mieć stabilność na poziomie współczesnego systemu. Po części odpowiadała za to prostota, zarówno hardware'u i software'u.

Najgorzej prezentują się pod tym względem chyba komputery z przełomu XX i XXI wieku. Zwłaszcza te przeznaczone na rynek konsumencki, z niższej i średniej półki. Pamiętam, że wtedy pokutowało przekonanie, że komputer raz na jakiś czas MUSI się zawiesić. I jasne - czasem odpowiadał za to zabugowany/zawirusowany Windows, ale niestabilne płyty główne też nie były rzadkością. Po prostu trzeba było z tym żyć. Wtedy w życiu bym nie postawił serwera na takim sprzęcie. Natomiast dzisiejszy "gamingowy" sprzęt poradzi sobie z takim zadaniem znakomicie, działając stabilnie 24/7.

Reply to
Atlantis

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.