Ciekawy artykuł o niezawodności chip-ów:
- data opublikowania
1 miesiąc temu
Ciekawy artykuł o niezawodności chip-ów:
Zawsze mnie to zaskakiwało, że nawet ye starsze technologie układów scalonuch potrafią (jako bardzo delikatna struktura ) pracować dziesiątki lat bez problemu. Czyli jednak idzie ku zmienie..
pytajacy zauważył:
Racja, w takiej sytuacji trzeba polegać na watchdogu.
Gógiel zwraca takie coś: Niezawodność chipów DRAM jest ~5,5x gorsza w DDR4 w porównaniu do DDR3. Procesory AMD EPYC™ drugiej generacji z AMDC zostały zaprojektowane w celu złagodzenia tego problemu poprzez korygowanie błędów ...
- Koniec ery rezonatorów kwarcowych
Polimeryzowałbym:)
W dniu 13.03.2024 o 23:11, alojzy nieborak pisze:
urządzenie będzie działać laaatami... Bo jak na razie nic tego nie zapowiada a wręcz się jeszcze bardziej napędza przez konsumpcjonizm, postęp, chęć zysku itd. Samo napędzająca się spirala.
W przypadku elektroniki to jednak nie tyle konsumpcjonizm, co prawo Moore'a. Jeśli tworzysz jakiś produkt i wraz z upływem czasu dostajesz coraz więcej mocy obliczeniowej za te same pieniądze, to dlaczego nie wykorzystać tego w kolejnej generacji? Z punktu widzenia konsumenta wygląda to podobnie. Teoretycznie nadal można by grać w "Super Mario" na Pegasusie albo "Deus Ex" na Play Station 2. Tylko skoro jest taka możliwość, to czemu nie kupić nowego sprzętu, który pozwoli na odpalenie "Wiedźmina" albo "Cyberpunka"? Wydawcy oprogramowania siłą rzeczy nie będą w stanie wspierać wszystkich "historycznych" platform i skupią się na rozwijaniu softu na te nowe, więc co jakiś czas trzeba będzie odświeżyć swoją konfigurację.
To znaczy tak to wyglądało przez kilkadziesiąt ostatnich lat, ale powoli przestaje. Prawo Moore'a powoli zwalnia. Widać to chociażby po ostatnich dwóch generacjach konsol. Ósma ma już ponad dekadę, a ciągle wychodzą na nią nowe tytuły.
Atlantis napisał:
Super Mario, i ten drugi gruby, już nie dostaną tej zabawki.
Jakby nie patrzeć, to nie jest coś, co byłoby mocno narażone na zużycie. Struktura leży sobie zabezpieczona obudową i nie posiada żadnych elementów ruchomych. Nawet pod względem termicznym nie jest narażona na skrajne warunki - to nie jest żarówka czy lampa elektronowa, gdzie poprawna praca wymagała temperatur, które prowadziły do powolnej, ale nieuniknionej degradacji elementu. Do tego technologia CMOS mocno ograniczyła emisję temperatury przez elektronikę.
No i im starsze układy, tym bardziej "toporne" - grubsza ścieżka, większy odstęp napięć pomiędzy zerem i jedynką. Współczesne mikroprocesory i układy graficzne znajdują się przecież w pobliżu granicy możliwości technologii fotolitografii.
pytajacy pisze:
W sumie korekta błędów w komputrach ma 70 lat :) Więcej danych/połączeń/podzespołów to i korekta musi być lepsza.
Połączenia raz działające i za chwilę już niedziałające jak da mnie zawsze były paskudne do diagnozy. Pomaga omomierz z zakresem 2 om i rozdzielczością 1 mili om.
Na poziomie połączeń przelotka-ścieżka/pad-kompnent to to się w dużej części rozwiązuje przez umieszczenie zmontowanych płyt w komorach termicznych i jedzie z temperaturą w dół i górę kilka razy. A jak testują krzem, tego nie wiem.
Niektóre potrafią, inne nie. Mam stary rosyjski budzik, w którym układ padł sam z siebie. Układy ULA w Spectrumach też nie były specjalnie trwałe.
No tak. Tylko co jak klient nie chce nowej generacji, bo stara mu wystarcza? Fajnie gdyby sprzęt działał jak najdłużej, a nie zgodnie z planowanym postarzaniem.
To chyba wynikało z technologii produkcji. Jeśli dobrze pamiętam, ULA nie była ASIC-iem robionym na zamówienie. To była uniwersalna struktura krzemowa z zestawem bloków logicznych, na którą potem nanoszono kolejną warstwę, zawierającą połączenia między nimi. Coś w rodzaju CPLD/FPGA, tylko programowanego w fabryce i na trochę niższym poziomie. ;)
Poza tym no cóż... Nic nie jest niezniszczalne. Przyczyn może być wiele: ukryta wada fabryczna, która w końcu da o sobie znać po latach, przepięcie, wysokoenergetyczna cząstka, albo po prostu entropia... :)
A klient zapłaci za równoległe rozwijanie oprogramowania na kilka różnych wersji platformy, a także jego optymalizację z myślą o odpalaniu na wariancie sprzętowym sprzed kilkunastu lat? Nie? No to klientowi pozostaje biblioteka gier, jakie wyszły na daną platformę. Póki co na szczęście nie ma problemów z uruchamianiem fizycznych wydań na sprzęcie, który nie jest już wspierany. Dystrybucja cyfrowa to zupełnie inna sprawa...
Teraz i tak sytuacja dość mocno zmieniła się na lepsze, bo tak do siódmej generacji konsole bardzo mocno różniły się od siebie sprzętowo, a tworzenie gier było sztuką wymagającą znajomości sprzętu i związanych z nim narzędzi programistycznych. Dzisiaj zarówno Sony jak i Microsoft postawiły na bardziej "pecetowe" architektury, a gry powstają w kilku najpopularniejszych silnikach.
No i właśnie w przypadku konsol do gier narracja o planowanym postarzaniu trochę się sypie, bo gdyby producenci chcieli, to spokojnie mogliby uwalić ósmą generację już kilka lat temu. Tylko najwyraźniej im się nie chce, bo nowe tutuły na PS4 czy XBox One ciągle wychodzą, chociaż z każdą chwilą jest ich coraz mniej (ale to przede wszystkim decyzja deweloperów, zresztą bardziej ambitnych produkcji nie dałoby się już upchnąć w hardwarze sprzed ponad dekady).
No i jest jeszcze ta kwestia, że obecnie przyrost mocy obliczeniowej nie daje już tak spektakularnych efektów, jak kiedyś. Z chwilą przeskoku PSX->PS2 czy PS2->PS3 różnica w grafice była oczywista. Dzisiaj gra wygląda lepiej, ale żeby zobaczyć tę różnicę nieraz trzeba obejrzeć film z porównaniem tych samych scen. Albo liczyć FPS-y. ;)
Pan Arnold Ziffel napisał:
To nie jedna z tych legend miejskich? W telekomunikacji już jakiś czas temu zmieniło się podejście do błędów. Kiedyś obowiązywał paradygmat, że w transmisji cyfrowej odstęp sygnału od szumu ma być wielki, każdy bit musi przejść bez błędu. Teraz pcha się tyle danych, tak szybko, żeby dobić do granicy, gdzie błędy się pojawiają, ale w ilości kilku procent. Pcha się bity nadmiarowo, a potem koryguje matematycznie. No i jak kiedyś telefonicznym drutem szło 300 bitów na sekundę, to teraz sto megabitów.
W półprzewodnikach dzieje się podobie. Pierwszy był Clive Sinclair, który do komputera ZX Spectrum wkładał pamięci RAM 64k z uszkodzoną komórką, które dobrze sprawdzały się jako 32k. Dzisiaj każda pamięć RAM jest "uszkodzona", projektuje się nadmiarowe wieresze i kolumny, a gdy na ich przecięci trafi się uszkodzona komóra, wyłącza się cały wiersz i całą kolumnę.
Jest opowieść o tym, jak panowie inwestorzy zapytali pomysłodawcę mikroprocesora, co będzie, gdy coś w nim się zepsuje? -- No to się go wyrzuci, nikt nie będzie układu scalonego naprawiał. -- Ha, ha, ha, wyrzucać lekko uszkodzony komputer, dobre sobie! No a teraz jesteśmy na dobrej drodze do tego, by psujące się procesory mogły się same naprawiać, wykorzystując do tego włożone im w fabryce do środka części zamienne.
A "planowe postarzanie"? Jeśli już, to łatwiej zrobić je programowo.
Jeszcze jedno mi się przypomniało w związku ze "starymi generacjami". W latach '90 robiliśmy diwajs, w którym był mikrokontroler z pierwszą generacją pamięci flash. Niewiele jej tam było, ale chodziło tylko o zapamiętanie ustawień, program był w innym miejscu. Działała tak, że zapis trzeba było robić w kilku miejscach, a przy odczytywaniu wynik ustalać w drodze głosowania.
Jarek
Prawie, bo jednak tej stopy błędów nie udało się uniknąć.
Skoro można, to się robi.
Ale to nie tylko dlatego. Jak widac - kiedys tym drutem też mogło isc 100MB (raczej 20), tylko sprzętu nie było :-)
32k dobre !Aczkolwiek jak można w historii doczytać "rtęć z rur wyciekała, więc powstał sytem zarządzania pamięcią, aby nie tracic przy tym danych". Na długo przed spektrum.
DRAM/SRAM tez? Moze i też, bo az się prosi.
A ekrany LCD jak się robi? Bo złych pikseli nie widać.
486SX :-)
No widzisz - a piszesz, ze kiedyś było lepiej :-)
Nie skopaliscie czegos? w latach 90-tych to juz powinno działac dobrze ...
J.
W dniu 14.03.2024 o 00:15, pytajacy pisze:
To mowisz, ze w twoim swiecie klon IBM PC AT z lat 80 byl bardziej niezawodny niz dzisiejsze PC z np. i9?
Pan J.F napisał:
Te przede wszystkim.
Starannie.
Ja?! Gdzie? Owszem, uważam, że pewne rzeczy wcześniej działały lepiej, jednak nie generalizuję.
To były absolutne początki. Działało tak sobie.
W dniu 14.03.2024 o 18:54, Ghost pisze:
Aż tak to nie. Ale padł mi dysk SSD Crucial (pisałem tutaj o tym). Niby nic bo na gwarancji jeszcze był, ale zanabyłem w zamian Samsunga z 5 letnią gwarancją. Kupiłem PS4 w 2014 roku i okazał się z błędem systemowym, nie dało się grać - wymieniłem na PS3. Takie przykłady z brzegu, gdzie rozwiązanie tych problemów kosztowało mnie trochę zachodu i nerwów (PS4 nie chcieli przyjąć w Media Markt).
W dniu 2024-03-14 o 18:40, J.F pisze:
Gdybam. Matryce LCD powstały wcześniej od urządzeń do ich optycznej kontroli? Pierw sprawdzali "na oko", a teraz automatem?
Systemów/firm jak poniżej masz na świecie kilka.
Tutaj zaryzykowałbym stwierdzenie, że dobrze zrobione klony PC AT z lat osiemdziesiątych mogły mieć stabilność na poziomie współczesnego systemu. Po części odpowiadała za to prostota, zarówno hardware'u i software'u.
Najgorzej prezentują się pod tym względem chyba komputery z przełomu XX i XXI wieku. Zwłaszcza te przeznaczone na rynek konsumencki, z niższej i średniej półki. Pamiętam, że wtedy pokutowało przekonanie, że komputer raz na jakiś czas MUSI się zawiesić. I jasne - czasem odpowiadał za to zabugowany/zawirusowany Windows, ale niestabilne płyty główne też nie były rzadkością. Po prostu trzeba było z tym żyć. Wtedy w życiu bym nie postawił serwera na takim sprzęcie. Natomiast dzisiejszy "gamingowy" sprzęt poradzi sobie z takim zadaniem znakomicie, działając stabilnie 24/7.
ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.