Zalety i wady używanych stacji roboczych z xeonami

Tu można porozmawiać na dowolny temat nie koniecznie związany z tematyką maszyn i CNC

mc2kwacz
Lider FORUM (min. 2000)
Lider FORUM (min. 2000)
Posty w temacie: 4
Posty: 2920
Rejestracja: 27 maja 2013, 22:18
Lokalizacja: gdzieś

#11

Post napisał: mc2kwacz » 28 maja 2017, 11:43

Z punktu widzenia informatyka od serwerów zapewne jest tak, że elementy różnią się obudową, zatyczką albo napisem, a reszta to zwykła ściema która ma pozwolić wyciągnąć N* więcej kasy za produkt "specjalny". I w części przypadków na pewno tak jest. Dokładnie tak samo jak producent programu bierze 2000zł za wersję jednostanowiskową, 3000zł za wersję na 3 stanowiska i 5000zł za wersję bez ograniczeń. A jest to ten sam program tylko bezpiecznik ustawiony inaczej.
Ale nie tak jest w produkcji hardware. Poczynając od socketów pod procesory a na strukturze krzemowej kończąc. Sockety mają zaciski z materiałów różnej klasy, pokrycia stopami różnej klasy i innej grubości. Układy scalone o tych samych funkcjach i wyprowadzeniach bywa że produkuje się w innych procesach technologicznych. Np takich które zapewnią kilkakrotnie większą trwałość struktury, czyli stabilność parametrów w czasie. Albo lepsze WYBRANE parametry. To są kosztowne zabiegi. Lepiej widać to w przypadku układów analogowych, gdzie klasy jakościowe często są jawnie wyprowadzone w postaci liter na obudowie. nawet głupi kondensator - jeden ma trwałość 1000h a drugi 6000h. Wylądaja tak samo, ten gorszy może być nawet ładniejszy...
O tym typowy tzw informatyk pojęcia nie ma. Wie jedynie że coś da się "podkręcać" a coś nie, i że dysk z czarną naklejka jest najtrwalszy a ten z niebieską najmniej trwały, mimo że fizycznie są identyczne.
Proponuję więc osobom które o elektronice mają pojęcie mierne, nie pitolić na temat trwałości elementów i technologii w oparciu o rewelacje z forów internetowych, Chipa i Komputerświata, generowane przez niedokształconych młodocianych pseudoredaktorów.



Tagi:


FTW
Specjalista poziom 3 (min. 600)
Specjalista poziom 3 (min. 600)
Posty w temacie: 5
Posty: 716
Rejestracja: 16 gru 2016, 10:44
Lokalizacja: śląsk

#12

Post napisał: FTW » 28 maja 2017, 13:06

mc2kwacz pisze:Z punktu widzenia informatyka od serwerów zapewne jest tak, że elementy różnią się obudową, zatyczką albo napisem, a reszta to zwykła ściema która ma pozwolić wyciągnąć N* więcej kasy za produkt "specjalny". I w części przypadków na pewno tak jest. Dokładnie tak samo jak producent programu bierze 2000zł za wersję jednostanowiskową, 3000zł za wersję na 3 stanowiska i 5000zł za wersję bez ograniczeń. A jest to ten sam program tylko bezpiecznik ustawiony inaczej.
Ale nie tak jest w produkcji hardware. Poczynając od socketów pod procesory a na strukturze krzemowej kończąc. Sockety mają zaciski z materiałów różnej klasy, pokrycia stopami różnej klasy i innej grubości. Układy scalone o tych samych funkcjach i wyprowadzeniach bywa że produkuje się w innych procesach technologicznych. Np takich które zapewnią kilkakrotnie większą trwałość struktury, czyli stabilność parametrów w czasie. Albo lepsze WYBRANE parametry. To są kosztowne zabiegi. Lepiej widać to w przypadku układów analogowych, gdzie klasy jakościowe często są jawnie wyprowadzone w postaci liter na obudowie. nawet głupi kondensator - jeden ma trwałość 1000h a drugi 6000h. Wylądaja tak samo, ten gorszy może być nawet ładniejszy...
O tym typowy tzw informatyk pojęcia nie ma. Wie jedynie że coś da się "podkręcać" a coś nie, i że dysk z czarną naklejka jest najtrwalszy a ten z niebieską najmniej trwały, mimo że fizycznie są identyczne.
Proponuję więc osobom które o elektronice mają pojęcie mierne, nie pitolić na temat trwałości elementów i technologii w oparciu o rewelacje z forów internetowych, Chipa i Komputerświata, generowane przez niedokształconych młodocianych pseudoredaktorów.
Wykształcenia elektronicznego nie mam, mam natomiast bardzo dużą wiedzę na temat samego sprzętu komputerowego - przez kilka lat zajmowałem się czymś takim jak extreme overclocking. W skrócie to podkręcanie i optymalizacja systemów, po to aby puścić konkretny benchmark na jak najwyższym taktowaniu. Zegary procesorów rzędu 6-7Ghz to tutaj normalka, oczywiście na chłodzeniu ciekłym azotem czy suchym lodem. Wbrew pozorom nie wygląda to tak, że co godzinę podmiana sprzętu, bo coś wybuchło - absolutnie nie.

Wiązało się to oczywiście z przerzuceniem setek różnych płyt głównych, procesorów i pamięci, wliczając w to selekcję procesorów, czyli wybieranie tych najbardziej podatnych na overclocking. Modyfikacje sprzętu - w szczególności sekcji zasilających karty graficzne i płyty główne (np. zasilanie jednej karty uciętą sekcją zasilania z drugiej karty, oczywiście odpowiednio podłączoną). Myślę, że daje mi to pewne podstawy, żeby się wypowiadać na temat jakości sprzętu i jego awaryjności.

Zgadzam się, że dane komponenty mogą być zupełnie różnej jakości - sockety, kondensatory, elementy wchodzące w skład sekcji zasilania, laminaty rozpraszające ciepło (Asus Stack Cool) i inne takie. Widać to ewidentnie porównując najtańsze i najdroższe modele z danej serii.

Pod kątem overclockingu oczywiście najlepsze są najwyższe modele, chociaż było sporo przypadków płyt ze średniej półki, które po małych modyfikacjach były lepsze od topowych modeli. Różnice są w zasadzie pomijalne przy normalnym użytkowaniu - rozbudowany bios, czy wydajność w konkretnym zastosowaniu lepsza o 1%.

Pytanie czy to ma wpływ na trwałość płyty głównej np. w laptopie, gdzie i tak najbardziej awaryjnym elementem jest układ graficzny? A układy jak wiadomo dostarcza dwóch producentów (AMD i nVidia). Karty graficzne Intela są zintegrowane w procesorach na ten moment. Czy w tym wypadku kondensatory mające trwałość 5 lat (podaje się w godzinach, wiem), są znacząco gorsze od tych co mają trwałość 10 lat? Biorąc oczywiście pod uwagę, że układ graficzny padnie po 2-3 latach i w tym momencie karta czy laptop są zazwyczaj do wyrzucenia. Nie mówiąc już o fakcie, że po 3 latach wejdą przynajmniej ze dwie nowe generacje kart, gdzie średni model z najnowszej serii będzie odpowiadał temu najwyższemu pod względem wydajności sprzed 3 lat. Przy znacznie niższym zużyciu prądu.

Kogo interesuje w tym momencie trwałość rzędu 10 lat, gdzie karty graficzne mające w tej chwili 10 lat nie znajdują zastosowania w tej chwili nawet do wyświetlania Windowsa, bo rozwiązania zintegrowane mają lepszą wydajność i znacznie niższy pobór prądu...

Osobną kwestią jest tez dobór sprzętu właściwego do zastosowania. Biuro projektowe w jakim pracowałem, miało kilka stacji roboczych HP z dwoma procesorami do Catii i NX. Stacje pewnie kosztowały po 10 tysięcy, grzało się to niesamowicie, a oba programy są jednowątkowe...
Ostatnio zmieniony 28 maja 2017, 13:09 przez FTW, łącznie zmieniany 1 raz.


pukury
Lider FORUM (min. 2000)
Lider FORUM (min. 2000)
Posty w temacie: 2
Posty: 7626
Rejestracja: 23 lis 2004, 22:41
Lokalizacja: kraków

#13

Post napisał: pukury » 28 maja 2017, 13:08

hej !
dużo mówi inskrypcja widniejąca na płytach od składaków - do pracy w biurze lub domu .
prosty przykład - komparator LM 111 / 211 / 311 - akurat coś z nim działam .
funkcjonalnie to samo - ale ..
pzd.
Mane Tekel Fares


rdarek
Lider FORUM (min. 2000)
Lider FORUM (min. 2000)
Posty w temacie: 4
Posty: 2135
Rejestracja: 04 sty 2013, 23:30
Lokalizacja: 3miasto

#14

Post napisał: rdarek » 28 maja 2017, 17:11

Jak już pisałem temat rzeka. :grin:
Tak dla jasności informatykiem nie jestem. Jednak pracuję na komputerach od lat wykorzystuję je na co dzień do pracy. Nigdy nie byłem zwolennikiem podkręcania, zależy mi przede wszystkim na stabilności sprzętu. To co piszę znam z autopsji.
FTW pisze:Wykształcenia elektronicznego nie mam, mam natomiast bardzo dużą wiedzę na temat samego sprzętu komputerowego - przez kilka lat zajmowałem się czymś takim jak extreme overclocking........... Wbrew pozorom nie wygląda to tak, że co godzinę podmiana sprzętu, bo coś wybuchło - absolutnie nie......
Różne hobby można mieć ;)
Wiązało się to oczywiście z przerzuceniem setek różnych płyt głównych, procesorów i pamięci, wliczając w to selekcję procesorów, czyli wybieranie tych najbardziej podatnych na overclocking. Modyfikacje sprzętu - w szczególności sekcji zasilających karty graficzne i płyty główne (np. zasilanie jednej karty uciętą sekcją zasilania z drugiej karty, oczywiście odpowiednio podłączoną). Myślę, że daje mi to pewne podstawy, żeby się wypowiadać na temat jakości sprzętu i jego awaryjności.
Wybieranie procesorów - to co pisałem o testowaniu i selekcji procesorów w trakcie produkcji tylko ty przebierałeś je dodatkowo pod swoje potrzeby. Co w rzeczy samej nie jest niczym nadzwyczajnym przy takich "zabawach".
Selekcja podzespołów jest jednak często spotykanym procesem.
Powinieneś mieć również świadomość, że niektóre konfiguracje sprzętu sprawiały problemy, nawet instalowanie różnych kombinacji driverów nic nie daje, gdzie wystarczyło zmienić jeden podzespół i już konfliktów nie było, wszystko działało super.
Zgadzam się, że dane komponenty mogą być zupełnie różnej jakości - sockety, kondensatory, elementy wchodzące w skład sekcji zasilania, laminaty rozpraszające ciepło (Asus Stack Cool) i inne takie. Widać to ewidentnie porównując najtańsze i najdroższe modele z danej serii. Pytanie czy to ma wpływ na trwałość płyty głównej np. w laptopie, gdzie i tak najbardziej awaryjnym elementem jest układ graficzny? A układy jak wiadomo dostarcza dwóch producentów (AMD i nVidia). Karty graficzne Intela są zintegrowane w procesorach na ten moment. Czy w tym wypadku kondensatory mające trwałość 5 lat (podaje się w godzinach, wiem), są znacząco gorsze od tych co mają trwałość 10 lat? Biorąc oczywiście pod uwagę, że układ graficzny padnie po 2-3 latach i w tym momencie karta czy laptop są zazwyczaj do wyrzucenia. Nie mówiąc już o fakcie, że po 3 latach wejdą przynajmniej ze dwie nowe generacje kart, gdzie średni model z najnowszej serii będzie odpowiadał temu najwyższemu pod względem wydajności sprzed 3 lat. Przy znacznie niższym zużyciu prądu.
I mamy często gonienie króliczka. Gdzie w tym wypadku nie ma potrzeby stosować drogich trwałych komponentów bo użytkownik i tak za dwa lata zmieni sprzęt. W ten sposób napędza się koniunkturę na tym rynku. Niestety często kosztem jakości.
Kogo interesuje w tym momencie trwałość rzędu 10 lat, gdzie karty graficzne mające w tej chwili 10 lat nie znajdują zastosowania w tej chwili nawet do wyświetlania Windowsa, bo rozwiązania zintegrowane mają lepszą wydajność i znacznie niższy pobór prądu...
Zdziwiłbyś się, "przemysł" nie jest zainteresowanym najnowszym sprzętem
Oprogramowanie produkcyjne jest instalowane na sprzęcie o konkretnej stabilnej, przetestowanej konfiguracji. I cennym jest aby ten sprzęt działał jak najdłużej bez potrzeby wymiany. A powiedz mi czy ty potrzebujesz jakąś wypasioną kartę grafiki do pracy przy linux CNC? Tak samo jakie wymagania ma konsola w serwerowni?
Osobną kwestią jest tez dobór sprzętu właściwego do zastosowania. Biuro projektowe w jakim pracowałem, miało kilka stacji roboczych HP z dwoma procesorami do Catii i NX. Stacje pewnie kosztowały po 10 tysięcy, grzało się to niesamowicie, a oba programy są jednowątkowe...
No właśnie czy każdy musi "podkręcać" sprzęt. Co potrzebuje Pani sekretarka czy handlowiec w biurze co animator a co maniak gier :mrgreen: każdemu według jego potrzeb :mrgreen:

P.S. Co było najszybsze w PC386 :grin:


mc2kwacz
Lider FORUM (min. 2000)
Lider FORUM (min. 2000)
Posty w temacie: 4
Posty: 2920
Rejestracja: 27 maja 2013, 22:18
Lokalizacja: gdzieś

#15

Post napisał: mc2kwacz » 29 maja 2017, 17:17

Podkręcanie komputerów (ch.w.p.c.) nie ma nic wspólnego z określaniem czy jakieś elementy są czy nie są dobre, trwałe, wysokiej jakości. To zabawa dla zabawy. Nic nie wnosząca działalność, tak samo jak granie.
Sprzęt wysokiej klasy wcale nie musi dać się żyłować. On ma byś dobry i trwały w takich warunkach do jakich go producent przewidział. Bo awaria to konkretna strata finansowa. Przestój często jest znacznie droższy niż wartość sprzętu. Sprzęt ma być niezawodny do momenty wymiany. Wymienia się sprzęt pełnosprawny na kolejny, uprzedzając wejście sprzętu w okres przyspieszonego starzenia.

Podam przykład motoryzacyjny na pojmowanie niezawodności, bardzo adekwatny. Silnik 2.0 Suzuki benzynowy. Jednostka trwała, niezawodna, w zasadzie bezobsługowa. Wymieniać olej, płyn chłodzący lać paliwo i jeździć. Ale jak spróbujesz go "zagazować", zgodnie z polską wiejsko-plebejską tradycją, to ten silnik prawdopodobnie po 50 tysiącach się rozsypie i jego naprawa będzie nieopłacalna. Dla odmiany jest wiele silników w których ciągle się coś psuje, urywa, rozciąga, rozszczelnia, ale założenie gazu nic im specjalnie nie szkodzi.

Awatar użytkownika

Autor tematu
Bri
Specjalista poziom 3 (min. 600)
Specjalista poziom 3 (min. 600)
Posty w temacie: 2
Posty: 814
Rejestracja: 21 maja 2009, 07:31
Lokalizacja: Ruda Śląska

#16

Post napisał: Bri » 30 maja 2017, 00:42

No ładnie :) Nastroiliście mnie pozytywnie do takiego zakupu (z paragrafem "na moich warunkach").

Osobiście spotkało mnie niewiele awarii:
- na amidze dawno temu gniazda pod joystiki wysiadły, ale to tak że wlutowywałem peceteowe gniazda COM centymetr dalej na płycie głównej mojej 600tki bo już przy krawędzi nie było do czego.
- przekręcona grafa raz sypnęła artefaktami i tak jej zostało (epoka między radeonami 9tysięcy serio, a geforcami 8tysięcy, czyli dwie cywilizacje temu)
- zasilacze
- ramy (nie wiadomo czy ich wina czy gniazd na płycie)
- karty sieciowe zintegrowane z płytą główną (o dziwo płyta działa do dziś z zewnętrzną sieciówką na PCI)
- W laptopach mostki północne i karty graficzne.
- Dyski (niedawno mój 10letni caviar 320GB "zacykał" ostatni raz)

Ale np. procesor nigdy mi nie zszedl z tego świata.

Jestem też przekonany że elektronika się zużywa, obserwuje to od jakiegoś czasu w kilkudziesięciu przypadkach - objaw jest jeden zwiększone wydzielanie ciepła.

Śląsk - Nierdzewka, Alloy, Laser, Gięcie, Excel


mc2kwacz
Lider FORUM (min. 2000)
Lider FORUM (min. 2000)
Posty w temacie: 4
Posty: 2920
Rejestracja: 27 maja 2013, 22:18
Lokalizacja: gdzieś

#17

Post napisał: mc2kwacz » 30 maja 2017, 08:49

Oczywiście że się zużywa. Czy raczej starzeje. W pierwszej kolejności niektóre rodzaje kondensatorów - z racji swojej budowy. W drugiej kolejności półprzewodniki. Degradują się. Im cieplej, tym szybciej. Reszta jest w zasadzie wieczna, o ile nie przekracza się parametrów.


Majster70
ELITA FORUM (min. 1000)
ELITA FORUM (min. 1000)
Posty w temacie: 1
Posty: 1255
Rejestracja: 08 cze 2010, 23:37
Lokalizacja: Piastów

#18

Post napisał: Majster70 » 01 cze 2017, 06:38

FTW pisze:Osobną kwestią jest tez dobór sprzętu właściwego do zastosowania. Biuro projektowe w jakim pracowałem, miało kilka stacji roboczych HP z dwoma procesorami do Catii i NX. Stacje pewnie kosztowały po 10 tysięcy, grzało się to niesamowicie, a oba programy są jednowątkowe...
Powołując się na konkretne przykłady warto być precyzyjnym, tzn przytaczać przy konkretnych programach konkretne wersje i konkretne moduły których się używa, ze sprzętem tak samo. Przykładowo: używam modułu Cam NX10. Jest on jak najbardziej wielowątkowy - można obliczać wiele obróbek jednocześnie jako osobne wątki. Ma to sens np przy skomplikowanych, wielogniazdowych formach. Co do Cati nie będę się wypowiadał, bo nie używam.


FTW
Specjalista poziom 3 (min. 600)
Specjalista poziom 3 (min. 600)
Posty w temacie: 5
Posty: 716
Rejestracja: 16 gru 2016, 10:44
Lokalizacja: śląsk

#19

Post napisał: FTW » 01 cze 2017, 06:52

Majster70 pisze:
FTW pisze:Osobną kwestią jest tez dobór sprzętu właściwego do zastosowania. Biuro projektowe w jakim pracowałem, miało kilka stacji roboczych HP z dwoma procesorami do Catii i NX. Stacje pewnie kosztowały po 10 tysięcy, grzało się to niesamowicie, a oba programy są jednowątkowe...
Powołując się na konkretne przykłady warto być precyzyjnym, tzn przytaczać przy konkretnych programach konkretne wersje i konkretne moduły których się używa, ze sprzętem tak samo. Przykładowo: używam modułu Cam NX10. Jest on jak najbardziej wielowątkowy - można obliczać wiele obróbek jednocześnie jako osobne wątki. Ma to sens np przy skomplikowanych, wielogniazdowych formach. Co do Cati nie będę się wypowiadał, bo nie używam.
Racja. Tutaj w grę wchodziło modelowanie powierzchniowe w obu programach.

ODPOWIEDZ Poprzedni tematNastępny temat

Wróć do „Na luzie”