Sterowniki są te same (tj. wspólny pakiet instalacyjny), tylko sobie wczytują na starcie sygnaturkę z PCI (konfigurowalną zworką/opornikami) i stosownie do niej włączają lub też nie obsługę poszczególnych funkcji.
I właśnie m.in. za brak takich dylematów płacisz kupując kartę "obliczeniową". :-)
A w praktyce to wygląda tak, że jak uzysk w pełni sprawnych struktur scalonych wzrasta, to się daje lepsze do niższych modeli kart, bo gorszych brak, więc szansa na poprawny upgrade rośnie. :-)
Nie chodzi o szerszy klimat, bo serwerownia jest zazwyczaj klimatyzowana, tylko o zbadanie, co się stanie z maszyną, jak się np. temperatura podniesie w wyniku awarii wiatraczka. I wystawienie papieru na tę okoliczność.
Nie wiem, ale stawiam na to, że sprzedają te same chipy, tylko po dokładniejszych testach i z certyfikatem. Przecież nie chodzi o to, że chip działał nie będzie, tylko kto pójdzie siedzieć, gdy się coś komuś stanie -- to nie jest problem techniczny.
Nie Jarku, to nie tak działa. Nie płacisz za jakiś niesamowity układ scalony, czy serwer, tylko za towarzyszący mu papier. Dodatkowych testów możesz w ogóle nie robić, to Twoja sprawa. Tylko gdy się ktoś podczas badań przekręci i się zacznie szukanie winnych, to Cię znajdą.
Nie jest podobna, jest znacznie gorsza. Mało który martwy pacjent ma do dyspozycji dział prawny o wielkości typowej np. dla dużej ubezpieczalni i budżet na jego wzmocnienie zewnętrznymi fachowcami. A wtedy poznasz sens pojęcia "zrobić z dupy jesień średniowiecza". :-)
Tylko się Panowie za bardzo nie napalajcie, po takiej zmianie osobowości karta nie będzie szybsza, lecz typowo wręcz przeciwnie: taktowanie jest niższe do kilkunastu procent. Za to inne funkcje stają się dostępne: operacje atomowe na pamięci karty, dodatkowe wsparcie sprzętowe dla niektórych typów danych, np. double, GPU direct, czyli ominięcie warstwy systemu operacyjnego poprzez uzyskanie przez kartę graficzną bezpośredniego dostępu do karty sieciowej (najlepiej Infiniband) i utworzenie automatyczne zarządzanego klastra z GPU, RDMA itp. Trzeba jeszcze wiedzieć, co z tym zrobić i mieć wart włożonego wysiłku wolumen danych. :-)
Nie chodzi mi o to czy FPGA jest write only. Ale że "urządzenie" da się skopiować (z naruszeniem lub nie np. patentów itp.) robiąc oprogramowanie od zera. Przykładem jest BIOS komputerów PC.
Ale ktoś tam napisał w wątku że PGA stosuje się dla zabezpieczenia przed czymś. Czyli że PGA są lepsiejsze niż coś innego, np. MCU. A jak jest naprawdę?
Nikt takiego warunku (że lepiej zabezpieczone niż MCU) nie robił. MCU realizuje program, krok po kroku, a FPGA to programowalna struktura logiczna, działa równolegle czyli szybciej aniżeli zrobiłby to MCU analizując wejścia i odpowiednio ustawiając wyjścia.
Może źle zrozumiałem. Ale padło zdanie, że PGA stosuje się w przemyśle aby utrudnić/uniemożliwić skopiowanie. Z drugiej strony MCU można zaprogramować tak, aby nie dało się zczytać programu. Więc też bezpiecznie. Z trzeciej strony: są/były techniki łamania MCU, np. mechaniczne ingerencje w strukturę aby zresetować fusebity.
Czyli, przy pewnej skali, mogłoby być opłacalne użycie PGA zamiast MCU, jeżeli w rezultacie można osiągnąć większą odporność na inzynierię odwrotną.
Ale: czy przy takiej skali (produkcja przynosząca miliony euro zysków) zapobiegnie się skopiowaniu naszego urządzenia - jeżeli kopiujący może po prostu napisać cały soft (ew. zaprogramować PGA) od zera?
Przykładem choćby BIOS. Phoenix nie skopiował BIOS'u, ale po prostu zrobił go na nowo.
ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here.
All logos and trade names are the property of their respective owners.