Miałem właśnie dopisać, że nie za każdym razem wykrywa mi karty, więc to nie jest kwestia wersji live czy zainstalowanej.
Instalowałem komendą setup-tomato64 po uruchomieniu z USB live. Wskazałem dysk w kompie oraz zgodziłem się na partycję optware.
Wynik eth:
[ 0.610942] e1000e 0000:00:19.0 eth0: (PCI Express:2.5GT/s:Width x1) 88:88:88:88:87:88
[ 0.610965] e1000e 0000:00:19.0 eth0: Intel(R) PRO/1000 Network Connection
[ 0.611020] e1000e 0000:00:19.0 eth0: MAC: 10, PHY: 11, PBA No: FFFFFF-0FF
[ 0.611859] e1000e 0000:00:19.0 eth0: no PCI slot information
[ 0.724122] ACPI Error: Aborting method \_SB.PCI0.SAT0.SPT0._GTF due to previous error (AE_NOT_FOUND) (20230628/psparse-529)
[ 0.739748] ACPI Error: Aborting method \_SB.PCI0.SAT0.SPT0._GTF due to previous error (AE_NOT_FOUND) (20230628/psparse-529)
Wstawiłem jedną ze starszych kart jakie znalazłem 100Mb/s w PCI na RTL8139D (to klasyk był kiedyś), bo D-Link na Marvelu też nie szedł, zaś druga to 1Gb/s na Intelu wbudowana w płytę - i tę rozumiem, że widzi.
Wygląda na to, że problematyczne są generalnie karty sieciowe, choć te same pod Windows chodzą, to tutaj wykrywane są jakoś z trudem, a Realtek'ów to miałem nawet kilka i to nowych.
Dołożyłem drugą kartę też Intela 82574L 1Gb/s i wykrywa za każdym razem od razu.
[ 0.593118] e1000e 0000:00:19.0 eth0: (PCI Express:2.5GT/s:Width x1) 88:88:88:88:87:88
[ 0.593138] e1000e 0000:00:19.0 eth0: Intel(R) PRO/1000 Network Connection
[ 0.593190] e1000e 0000:00:19.0 eth0: MAC: 10, PHY: 11, PBA No: FFFFFF-0FF
[ 0.681910] e1000e 0000:01:00.0 eth1: (PCI Express:2.5GT/s:Width x1) 1c:fd:08:70:92:ec
[ 0.681929] e1000e 0000:01:00.0 eth1: Intel(R) PRO/1000 Network Connection
[ 0.681950] e1000e 0000:01:00.0 eth1: MAC: 3, PHY: 8, PBA No: E25867-006
[ 0.682763] e1000e 0000:00:19.0 eth0: no PCI slot information
[ 0.682774] e1000e 0000:01:00.0 eth1: no PCI slot information
[ 0.700570] ACPI Error: Aborting method \_SB.PCI0.SAT0.SPT1._GTF due to previous error (AE_NOT_FOUND) (20230628/psparse-529)
[ 0.717001] ACPI Error: Aborting method \_SB.PCI0.SAT0.SPT1._GTF due to previous error (AE_NOT_FOUND) (20230628/psparse-529)
[ 5.551071] e1000e 0000:01:00.0 eth1: entered allmulticast mode
[ 5.551158] 8021q: adding VLAN 0 to HW filter on device eth1
[ 5.552009] br0: port 1(eth1) entered blocking state
[ 5.552016] br0: port 1(eth1) entered disabled state
[ 5.552085] e1000e 0000:01:00.0 eth1: entered promiscuous mode
[ 9.129506] e1000e 0000:01:00.0 eth1: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
[ 9.129859] br0: port 1(eth1) entered blocking state
[ 9.129864] br0: port 1(eth1) entered forwarding state
[ 10.151647] e1000e 0000:00:19.0 eth0: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None
Na łączu 1Gb/s od Netii mam teraz 950Mb/s, przy obciążeniu i5-3470 na poziomie 5%, gdzie ARM w ASUS RT-AC66U B1 dawał 300Mb/s max przy obciążeniu CPU na poziomie 50%. Myślę, że te pomiary obciążeń są takie z grubsza, że ARM był już na wysyceniu. Jestem zadowolony. Jak znajdę jakiś sprzęt bardziej energooszczędny i najlepiej pasywny, no i oby karty sieciowe były wykrywane, to przesiadam się na Tomato64.
Chiński miniPC na jakimś 4-core intelu z LAN 4x 2,5G Intel v226 będzie zarówno energooszczędny, pasywny i będzie miał karty wykrywane przez Tomato64 a przy okazji 2.5Gbit może się przydać w przyszłości.
Kolejna sprawa to możesz najpierw postawić Proxmoxa VE i dopiero na nim tomato64 w wirtualizacji i prócz routera będziesz miał fajny homelab do nauki wirtualizacji itd.
Proxmox VE:i5-13400T, 64GB RAM, 2x 512GB NVMe, 3x 2TB SSD, Intel X710-DA2 SFP+ VM Router:OpenWRT 22.03.4 VM NAS:Synology SA6400 VM VPS:Debian, WWW, Home Assistant Switch:Netgear MS510TXPP Switch:Ubiquiti USW-Flex-mini - szt. 2 Wi-Fi:Ubiquiti U6-Lite - szt. 2
Testował już ktoś nowa wersje 2024.3 na proxmoxie? zauwazylem 2 wersje bios i uefi, ktora lepiej sie sprawuje na wirtualizacji? I jak najlepiej przejsc z 2024.2 na 2024.3 , na nowo trzeba stawiać vmke?
Przy okazji dopytam:
Aug 17 15:07:57 daemon warn irqbalance IRQ 31 affinity is now unmanaged
Aug 17 15:07:57 daemon warn irqbalance Cannot change IRQ 32 affinity: I/O error
Aug 17 15:07:57 daemon warn irqbalance IRQ 32 affinity is now unmanaged
Aug 17 15:07:57 daemon warn irqbalance Cannot change IRQ 30 affinity: I/O error
Aug 17 15:07:57 daemon warn irqbalance IRQ 30 affinity is now unmanaged
Aug 17 15:07:57 daemon warn irqbalance Cannot change IRQ 36 affinity: I/O error
Aug 17 15:07:57 daemon warn irqbalance IRQ 36 affinity is now unmanaged
Aug 17 15:07:57 daemon warn irqbalance Cannot change IRQ 39 affinity: I/O error
Aug 17 15:07:57 daemon warn irqbalance IRQ 39 affinity is now unmanaged
Aug 17 15:07:57 daemon warn irqbalance Cannot change IRQ 37 affinity: I/O error
Aug 17 15:07:57 daemon warn irqbalance IRQ 37 affinity is now unmanaged
Aug 17 15:08:57 daemon warn irqbalance Cannot change IRQ 38 affinity: I/O error
Aug 17 15:08:57 daemon warn irqbalance IRQ 38 affinity is now unmanaged
Czym to może być spowodowane? Wcześniej chodziło bez zarzutu, teraz coś się skomplikowało i wywala mi takie błędy na moim tomato postawionym na proxmoxie. Na poczatku myslalem ze mialem atak hakerski przez openvpn, ale zablokowalem porty i dojscia do mojego serwera Synology z zewnatrz oraz do Tomato.
Edytowany przez d00d3k dnia 17-08-2024 15:15
legacy vs uefi - w sumie bez różnicy. Używaj tej którą masz.
Jak przejść? Ściągasz plik update.zst i jego wskazujesz i samo się zaktualizuje.
Ja testowałem ale niestety wciąż jest błąd przy dualwanie. Zrzuciłem logi, dodałem do bug trackera i to w sumie tyle.
Te błędy to nie atak, tylko niedziałający daemon odpowiedzialny za obsługę procesorów wielowątkowych. Też miałem te błędy. Możliwe że wcześniej nie było to w ogóle zaimplementowane i autor próbuje wdrożyć tą funkcjonalność.
Proxmox VE:i5-13400T, 64GB RAM, 2x 512GB NVMe, 3x 2TB SSD, Intel X710-DA2 SFP+ VM Router:OpenWRT 22.03.4 VM NAS:Synology SA6400 VM VPS:Debian, WWW, Home Assistant Switch:Netgear MS510TXPP Switch:Ubiquiti USW-Flex-mini - szt. 2 Wi-Fi:Ubiquiti U6-Lite - szt. 2
legacy vs uefi - w sumie bez różnicy. Używaj tej którą masz.
Jak przejść? Ściągasz plik update.zst i jego wskazujesz i samo się zaktualizuje.
Ja testowałem ale niestety wciąż jest błąd przy dualwanie. Zrzuciłem logi, dodałem do bug trackera i to w sumie tyle.
Te błędy to nie atak, tylko niedziałający daemon odpowiedzialny za obsługę procesorów wielowątkowych. Też miałem te błędy. Możliwe że wcześniej nie było to w ogóle zaimplementowane i autor próbuje wdrożyć tą funkcjonalność.
Dzięki za info, już zacząłem blokować, bo net co chwile padał i miałem wrażenie ataku ddos, bo prędkość na routerze mocno spadła. Zastanawiam się jak ugryźć wireguard, żeby w miarę był bezpieczny dostęp z zewnątrz, ale to poczekam jak dobra duszyczka wypowie się profesjonalnie na temat instalacji takiego rozwiązania i jak to jest bezpieczne
· Łącznie użytkowników: 24,115 · Najnowszy użytkownik: Ja
Czat
Musisz się zalogować, aby opublikować wiadomość.
Maniek91PL
06-11-2024 22:37
dzięki !
maxikaaz
29-10-2024 14:27
@Maniek91PL - Administration=> Admin Access, i tam masz "Allow Wireless Access" do zaznaczenia
Maniek91PL
26-10-2024 22:07
siemka! ktoś przypomni co się ustawiało jeśli nie mogę wejść od strony wifi do tomato? od lan działa
overflow2
04-10-2024 17:34
Kupowałem Asusy n10u albo n12d1 ale nie widzę ich, chyba już nie produkują, Chodzi o coś nowego i taniego. Transfery niewielkie.
maxikaaz
04-10-2024 09:38
@overflow2 patrząc po dostępności funkcji w nowych kompilacjach, to chyba nawet WRT54G/GL jeszcze ma OpenVPN, albo jakiś odpowiednik... zależy, na jakie transfery liczysz.
overflow2
30-09-2024 20:53
Jaki aktualnie najtańszy router do tomato do openvpn?
maxikaaz
27-07-2024 15:07
@servee - na początek router do rozebrania i obejrzenia, ciężko wróżyć tak tylko po objawach
maxikaaz
27-07-2024 14:55
@servee - cały kontroler nie pada tak sobie z powodu "zbiegu okoliczności", więc prawdopodobnie gdzieś przepięcie.
servee
25-07-2024 13:33
@maxikaaz: działało, aż pewnego pięknego dnia przestało działać. W tym dniu była też burza, ale to raczej zbieg okoliczności.
maxikaaz
25-07-2024 11:38
@servee - o ile problem jest w obrębie samych wyjść (dławiki, warystory), to naprawialne, ale jeśli w samym SoC - to nienaprawialne ze względu na koszta. A co było przyczyną?