tomcat65 pisze:Warunek - to musi działać dłużej niż miesiąc.
Komputer z którego piszę ma w katalogu domowym najstarsze pliki z datą 17.02.2012, co oznacza że tego właśnie dnia postawiłem system.
To jest Xubuntu 12.04 wersja 64-bity.
Loguję się zawsze i wyłącznie jako root, co podobno jest herezją i kończy się natychmiastowym uwaleniem systemu.
System jednak działa stabilnie, choć przeżył kilkadziesiąt apt-get dist-upgrade, bo lubię mieć najnowszą wersję.
Podobnie jest i na innych moich komputerach, ale tego akurat używam codziennie a tamtych rzadziej.
Przyczyn niestabilności Linuksa może być kilka.
Pierwsza to użycie niestabilnej wersji.
Przykładowo Ubuntu jest wydawane co sześć miesięcy i nie ma takiej siły, żeby przez ten czas przetestować dokładnie wszystkie nowości.
Do pracy używa się wersji LTS, czyli o długim wsparciu.
Taki system jest wydawany co dwa, a uaktualniany przez trzy lata i nabiera z czasem coraz większej stabilności.
Teraz jest to Ubuntu 12.04 Precise Pangolin.
Druga przyczyna to uszkodzony sprzęt.
Tutaj wiele do powiedzenia nie ma.
Zasadniczo tylko tyle, że Linux na takim sprzęcie wykłada się natychmiast, za to Windows zdycha powoli, co daje złudne wrażenie że jest stabilniejszym systemem.
Do kategorii uszkodzonego sprzętu należy też sprzęt overclockowany, pracujący na granicy stabilności.
Jeżeli Linuksa daje się bez problemu zainstalować a po tygodniu wywala "kernel panic" to w 99% przypadków jest to uszkodzony sprzęt.
Pozostały 1% to coś co nazywam "palce szybsze od mózgu".
Jeśli ktoś dostaje uprawnienia roota, choćby przez sudo, to musi myśleć zanim kliknie lub wciśnie <Enter>.
Linux to nie jest system pisany dla debili, w którym nawet administratorowi niewiele wolno, bo może coś popsuć.
Linux działa na zasadzie "pan każe - sługa musi", więc wykona nawet najbardziej bezsensowne polecenia, a potem jest "samo się popsuło !".
k-m-r1 pisze:Rozwiń swoje myśli i wypowiedz i jak chcesz to zastosować
To nie były moje myśli i niczego nie chcę stosować.
Szczerze mówiąc nie bardzo wiem o co autorowi wątku chodzi.
On pisze bardzo enigmatycznie i ma problem z wytłumaczeniem problemu.
W sumie to wygląda na jakąś bzdurę, bo droga, czas i prędkość są ze sobą nierozerwalnie związane i nie da się ich dowolnie zmieniać jeśli dwa ruchy mają być ze sobą skoordynowane.
Zawsze jakąś wielkość trzeba założyć, a reszta "wyjdzie sama".
W maszynach zasadniczo zakłada się drogę, bo ona zwykle jest ograniczona.
Niby można coś odwijać z rolki, ale przecież nie w dwóch kierunkach na raz.
Nie bardzo sobie wyobrażam że coś ma ograniczone pole pracy i zakłada się prędkości a droga jak wyjdzie to wyjdzie.
Co do HAL w LinuxCNC, to oprócz łączenia gotowych, predefiniowanych modułów, można też dopisać własne, albo zmodyfikować istniejące.
To jest open source, są dostępne źródła i wolno z nimi prawie wszystko.
Tutaj już faktycznie trzeba być programistą żeby to samodzielnie zrobić, ale pozostałym wystarczy przecież umiejętność wytłumaczenia programiście o co chodzi i jak to ma działać.
Także zasadniczym ograniczeniem jest wyobraźnia.
.