Jump to content
BulForum.com

Изграждане на връзка над 1Gbps в домашна мрежа


tedy

Recommended Posts

Какви достъпни опции имам при изграждане на над 1Gbps връзка в домашна мрежа днес?

Към момента искам единствено директна връзка между две машини (десктопа и сървъра) в нас, която да е поне 2Gbps, защото вече имам дискове, които при реални копирания правят средно 200МБ/с, и гигабитовата мрежа вече ми дойде тясна за този конкретен случай при връзката между конкретните 2 машини.

Примерно местя архив/имидж няколко десетки ГБ към сървъра, сорс диска прави 170МБ/с, таргет диска е голям и прави 200МБ/с, мрежата 110-115 макс.

USB3 решения не ме задоволяват.

 

10Gbps ланки идват скъпи, към 400 лв, а ще трябват две.

Рутер не влиза в уравнението, защото за момента връзката ще е директна някак, а не през рутер.

 

Има ли вече 2.5/5Gbps ланки, че не намирам?

 

Това, на което съм се спрял, е bonding на две двупортови гигабитови ланки, за общо около 220МБ/с.

Не съм го правил, лесно ли става с Windows server (2016), каквито са двете машини?

Дайте идея откъде могат да се вземат изгодно две нормални двупортови ггбит ланки, че в ибей намирам някакви интел за по $25, или някакви winyao (непозната марка, дали ще иска специално драйвери). От интел лан картите има почти само оплаквания, че бързо горят, вкл. от админи, които не ги препоръчват.

Link to comment
Share on other sites

  • Replies 88
  • Created
  • Last Reply

Top Posters In This Topic

По принцип е лесно да бонднеш ланки

Погледни тези два варианта също, ако машините ти са близко една до друга :
Фикснато линкче- това ползвам аз

http://blog.patshead.com/2016/04/infiniband-an-inexpensive-performance-boost-for-your-home-network.html - също не лош вариант за евтина и бърза мрежа. 

Edited by ARPAnet
Link to comment
Share on other sites

Мерси. Първият линк не работи, а за втория, това infiniband е някакъв нов за мен стандарт за връзка явно, но противно на статията, в ибей нещо не виждам от линка им изгодни карти каквито казват по $20, а са все над $40-50 едната.

Машините са близо, но поне 10-тина метра искам да имам запас ако ги раздалеча.

Явно ще търся две двупортови. Бих взел интела за $25 едната, ако не горяха толкова. Имал съм една Интел Про 1000 преди години, знам, че ми правеше BSODs. Тия Winyao дали се поддържат директно от Вин10/2016..

Link to comment
Share on other sites

Мерси. Първият линк не работи, а за втория, това infiniband е някакъв нов за мен стандарт за връзка явно, но противно на статията, в ибей нещо не виждам от линка им изгодни карти каквито казват по $20, а са все над $40-50 едната.

Машините са близо, но поне 10-тина метра искам да имам запас ако ги раздалеча.

Явно ще търся две двупортови. Бих взел интела за $25 едната, ако не горяха толкова. Имал съм една Интел Про 1000 преди години, знам, че ми правеше BSODs. Тия Winyao дали се поддържат директно от Вин10/2016..

Оправих линка.

Intel Pro 1000 ползвам от години и не са ми горяли. Тамън си купих още една преди няколко месеца :) А winyao не съм ги и чувал дори :)

Link to comment
Share on other sites

Ясно. Тия Меланокс карти също са над $50-60, така че отпада. Ако някъде в ибей цената им е $20-25, то шипинга е поне 40 :) . А и кабелите...

Ще взема 2 двупортови интел карти (или winyao, ще видя) за по $20-25, щото 220МБ/с ще вършат работа. А и разстоянието може да е до 100 метра в случая, а не 10.

Link to comment
Share on other sites

Коледна пакетна цена за:

А. 2 бр. мрежови карти + кабел140 лв. 

B. 2 бр. мрежови карти + 2 бр. SFP+ модули + 30м оптичен пач-кабел: 280 лв. 

 

Седмица money back, ако не успееш да се оправиш с драйверите...

Edited by plameni
Link to comment
Share on other sites

Щях да се замисля ако кабел имаше поне 10 метра (май то е и максимума). Бих искал инвестицията все пак да е по-future proof ако разделеча машините.

Отделно нещо ме човърка особеността на pci-express шините. Картите са x4 (4 lanes), чипсета ми предоставя общо 6 pci-e 2.0 lanes за слотовете. Ако примерно сложа такава карта, това означава предполагам че ще останат 2 lanes за други слотове за ползване, т.е. не се шерват бандуитите им. Имам два свободни х4 (физически х16) и 3 х1, което означава, че с тази карта, ще имам после възможност да пъхна примерно само две други карти х1 по слотовеte, или само още една х4/х2? Не че би било проблем ако чипсета не ги шерва с USB/SATA портовете, което мисля че е така (не ги шерва), не съм много запознат..

 

Намират ли ти се някакви двупортови гигабитови карти pci-e x1?

Edited by tedy
Link to comment
Share on other sites

Щях да се замисля ако кабел имаше поне 10 метра (май то е и максимума). Бих искал инвестицията все пак да е по-future proof ако разделеча машините.

 

Не е ли future proof?

Махаш кабела (мисля, че моята цена пренебрежимо ниска) и пускаш оптика (имаш готов вариант В). Ако трябва и до 80 км можеш да стигнеш...

Ето ти и евтин 10м готов оптичен кабел. Два лева му е доставката до БГ

Има вариант и за двупортова 1G мрежова карта.

Edited by plameni
Link to comment
Share on other sites

За мен не е. Този кабел идва на 60-70 лв за 10 метра, аз не мога да си ги пачвам/удължавам както си искам, а и за твоята цена не съм казал нищо лошо.

Двупортовите ланки, които си показал, повече са ми на сърце, 220МБ/с ще са ми достатъчни ако лесно се бонднат, въпроса е да се оползотвори скоростта на дисковете, които отдавна надхвърлиха гигабита.

Тези карти поддържат ли се директно от Windows Server без допълнителни драйвери? Предполагам WIn10 не се поддържа, защото вградената ми ланкарта е интел, и имах грижи да я подкарам под Server OS, предполагам съврър ланка ще е обратно - с вин10 ще има грижи.

 

P.S. Сега видях, на "сървъра" ми имам свободен един PCI и един PCI-e x1 слот. Явно няма да стане с х4 карти като показаните. Даже ПЦИ слота е покрит от видеокартата.

В ибей намерих някакви двупортови по $20 парчето с фрии шипинг, на х1 слот, вероятно ще свършат работа.

Edited by tedy
Link to comment
Share on other sites

По-вероятно е моите да не ти свършат работа за този случай:

Intel Pro 1000 PT Dual - Windows 10 x64 - ANS NIC Teaming
 

PT series cards were launched in 2005. There's currently no information about having it "full support" in Win 10 x64. The last "full support" is Windows 7.


The only driver for Intel® PRO/1000 PT Server Adapter in Windows 10 is the one supplied by Microsoft that comes with the Operating System. For list of Intel Server Adapter that supports ANS in Windows 10, please refer to the link below.

http://www.intel.com/content/www/us/en/support/network-and-i-o/ethernet-products/000020905.html

Kindly look for adapter model with "Yes" under "Full Support".

btw, малко трудно разбирам позицията ти. От една страна искаш "future proof", а от друга, се спираш на решение, с максимални два гигабита, без абсолютно никаква възможност за увеличаване на скоростта.

Link to comment
Share on other sites

Future proof имах предвид за дължината на връзката. Утре мога да реша да смъкна сървъра в "мазето". И поддръжката на това bonding/teaming явно е почнала от Server 2012 и ще се поддържа и занапред. И цената засега е достатъчно ниска на два такива адаптера. С тези infiniband пък четох за проблеми.

В близко бъдеще повече от 200-220МБ/с надали ще ми трябва иначе. Ако ще правя 10гбит, то ще искам и суич/рутер за звезда, а не както сега планирам, "триъгълник" за тези машини. И цената не вярвам скоро да отънее достатъчно че да си струва в домашни условия цялата дандания. 10 метра със сигурност няма да ме оправят скоро, а цената на кабел над 10м, предвид 10м колко струва.... :)

Отделно, като гледах една таблица с поддръжка на teaming и софтуер под вин10 на различни интел адаптери, хептен засега се обърках кое какво поддържа, та засега ще отложа нещата докато не видя конкретна платка дали ще работи.

Link to comment
Share on other sites

Ти се майтапиш, ама аз съм си го написал, че е по-скоро за келешлък засега, и не ми е толкова спешно. То много неща не са спешни - аз за дъното си чаках 7 дена докато ми го доставят, а за видеокартата 3 седмици. Така че.. Не че е по темата де.

Ако съм сигурен че даден адаптер става, ще го взема. В ибей е пълно с двупортови, масово winyao някакви, но явно се оказва, че не всяка карта/драйвери стават за целта май.

И никой не каза категорично, че става с всеки два порта. $20 за карта съм Ок. Кабели, rj45 конектори си имам.

Link to comment
Share on other sites

Такам, сега имам малко повечко време.

Има няколко неизвестни с тийминга на 2 х1Г интерфейси.

Трика не е просто да ги тиймнеш, но и да ползваш LACP вместо обикновен failover. И ако трябва да съм честен, не знам дали можеш да имаш LACP директно м/у два компа, без намесата на суич. Също не съм уверен как Уин 10-ката ще се справи с LACP в/у стари ланки и съответно стари драйвъри. Зависимостта ще е към драйвърите, та трябва да се тества, или потърси дали някой може да препоръча работеща комбинация. За съжаление аз ги ползвам с други OS-и и винаги с подходящи суичове, съответно не мога да съм полезен когато идва реч за десктопи.  

Но дори и да подкараш всичко, такъв тийминг е полезен при много connections. За единично копиране през SMB ще имаш 1 гигабит, а не два. :)

Заради това и препоръката ми за 10Г адаптери. и линковете към евтините варианти за такова изпълнение, заедно с плюсовете и минусите им. 

 

Като се има предвид, че при мен една нова Intel PRO/1000 GT Desktop (не поддържа тийминг в Уин без поне една сървърна ланка) е към 68 лева, цената за 10Г оборудване хич не е лоша :)

Link to comment
Share on other sites

Да, за това с конекциите ми беше и на мен притеснението, за което не можах да намеря инфо в нета. Дали при едно копиране с една конекция ще шерва между двете ланки в тийма. Четох че при Dynamic load balancing, уж би трябвало, но още ми убягва нещо в схемата.

NIC teaming се поддържа нативно (за произволни 2 или повече ланки, а не само "специални", стига да са и двете 1гбит примерно) от Server 2012, но не и в десктоп версиите на Windows, поне така четох. В случая говорим за между две машини с Server 2016. При предните виндовси било драмата с еднаквите и поддържани nics със съответен софт от производителя.

10Г е супер, но къде такава карта по 68 лв, щото най-евтината, която видях е 400 лв, а и те са x4, а както казах на една от машините имам само един x1 слот, тя е микроАТХ с двуслотово видео + звукова карта.

Edited by tedy
Link to comment
Share on other sites

Две карти Intel I350-T4 за под 80 лв./бр. би трябвало да ти свършат работа, защото отговарят на условията:

- 1x PCIe;

Teams and VLANs full Support;

- Future proof (до 4Gbps).

 

s-l500.jpg

 

Все пак, зависи колко те "сърби" и дали си готов да се "почешеш" със 160 лв. B)

 

Link to comment
Share on other sites

Да, за това с конекциите ми беше и на мен притеснението, за което не можах да намеря инфо в нета. Дали при едно копиране с една конекция ще шерва между двете ланки в тийма. Четох че при Dynamic load balancing, уж би трябвало, но още ми убягва нещо в схемата.

NIC teaming се поддържа нативно (за произволни 2 или повече ланки, а не само "специални", стига да са и двете 1гбит примерно) от Server 2012, но не и в десктоп версиите на Windows, поне така четох. В случая говорим за между две машини с Server 2016. При предните виндовси било драмата с еднаквите и поддържани nics със съответен софт от производителя.

10Г е супер, но къде такава карта по 68 лв, щото най-евтината, която видях е 400 лв, а и те са x4, а както казах на една от машините имам само един x1 слот, тя е микроАТХ с двуслотово видео + звукова карта.

Dynamic load balancing-a се грижи да мести flow-овете м/у членовете на тийма и да се старае да ги ребалансира (в моменти на спиране/паузиране на flow-а), докато преди се assign-ваха статично на член от тийма и си оставаха там, което може да доведе до не балансиран тийм. Но не мести активен трансфер м/у различни ланки с цел увеличаване на скороста. 

А уин 10-ката я взех от предишните ти постове, реших че искаш да я ползваш за целта :))

Картата която споменавам е гигабитова и сравнявам цената и със споменатите горе варианти за 10Г карти. :)

Link to comment
Share on other sites

Пламени, в определено състояние на духа може би ще съм готов да дам тези пари. Но основният проблем пък в случая, че не са х1, а х4 тези които си линкнал в ибей и този модел, не знам защо пишеш, че е 1х pci-e. Ако имаше двупортови, щяха да са х1 най-вероятно.

От друга страна това, което пише ARPAnet е така, и аз така четох, но само отчасти. Windows SMB има един фийчър SMB multichannel, което създава няколко конекции за една сесия, и една от конфигурациите, които се поддържат, е точно nic teaming - създава конекция за всяка карта в тийма. Само не ми стана докрай ясно дали при трансфер на единичен файл го разделя на части през тези конекции. Пък и аз основно ползвам FTP, и там програмата, която ползвам не е ясно дали може подобни чудеса да прави :) .

Май се отказвам засега докато не ми се изясни всичко около агрегацията на единичен трансфер или не намеря изгодни 10гбит карти.

Link to comment
Share on other sites

... не знам защо пишеш, че е 1х pci-e.

Защото явно кафето не е било достатъчно. Прав си разбира се.

 

... или не намеря изгодни 10гбит карти.

Успех!

Но няма ли пак да те спира изискването за 1х?

Такова чудо на 10GbE не съм виждал.

btw, в кутията има ли място за екстендър?

 

USB30-PCI-E-PCI-Express-1X-to-16X-Riser-

Link to comment
Share on other sites

Еми да, но както и ти намекна, докато цените станат нормални, ще гледам да съм сменил дъното, което май няма да е скоро. Дотогава може би пак ще погледна USB3 варианти..

Направо ми се скофти настроението :) . Взех тоя бърз хдд, като можех да мина с по-бавен (но не и по-евтин де), дето никога няма да му видя (двойните) достижимите скорости докато го достъпвам мрежово.

 

Edit: Този екстендър предполагам ще ограничава х4(16) към бандуита на х1, нали така? Може да е решение поне за едната машина дето има само х1. Място ще се намери, дори да е хвърчащо, стига и това да не минава 20-30 лв :) . Но ще търся нещо с по два порта и по-евтино, защото скоро 4гбит няма да ми е нужен. И то само ако SMB/FTP могат да разделят трансфер на части, иначе се губи смисъла ако при ъплоад на архив ще го точи само по едната връзка.

Edited by tedy
Link to comment
Share on other sites

За съжаление вече не вървя наникъде засега, поне по отношение на тийминга. Оказа се наистина, че един сокет (ИП+ порт) не се прекарва по повече от 1 връзка (подобно на RAID0 примерно), а текущите FTP решения, които ползвам, нито едно не поддържа сегментирани трансфери, което би се възползвало от няколко конекции, които да се прекарат паралелно през двете връзки от тийма.

Не че за автоматизирани бекъпи (примерно) не мога да направя скриптове, които да разделят нещата на части и после да сглобяват, ама занимавката ще стане голяма и ненужно, а ми се искаше нещо по-прозрачно в това отношение. Но явно не, и някой ден може пак да погледна infiniband или тия решения с х4 карти като реша да сменя дъно.

От ФТП програмите пък май само CuteFTP видях да поддържа сегментирани трансфери.

 

Edit: Ок, plameni, с оная райзер платка дали ще стане номера с онези платки меланокс, които ми предложи на предната страница? Може да прежаля малкото разстояние от 3.5 метра засега. Riser платки гледам има бол в олх по 12-15 лв. И номера с драйверите - предполагам не знаеш дали има драйвери и ще вървят на windows server..

Edited by tedy
Link to comment
Share on other sites

Благодаря на plameni, взех от него комплект от показаните по-рано карти Mellanox SFP+ (PCI-E x4) плюс кабел, и дори на едната машина е през екстендер (riser card) х1 -> х16, и се получиха нещата. "Сървъра" ми е малко слабичък, та през екстендъра нещо не можах да вдигна над 176МБ/с, но като я сложих на мястото на видеокартата на х16 слота, вдигнах около 700МБ/с, доста повече отколкот ми трябва, така че за мен това се оказа най-доброто решение явно. То даже понеже имам 4 харда там, а при мен 3, мога едновременно да прекарвам две копирания между два харда между двете машини :) .

P.S. Windows Server 2016 ги разпозна картите автоматично и им инсталира явно вграден в него драйвер от Mellanox (а не майкрософтски). Тепърва ще видя дали Win10 ще се справи и ще ги разпознае (имам инсталиран и Вин10).

Edited by tedy
Link to comment
Share on other sites

  • 3 months later...

Да изкажа задоволството си от setup-a с тези карти, 4 месеца по-късно.

Оттогава ъпгрейднах (почти изцяло) сървъра, не крия основно заради тези карти за да задоволи по-пълно възможностите на 10-те гигабита от негова страна. Ново дъно с поне два големи pci-e слота, 4-ядрен феном на 3.4 и т.н.

Вече удря 9.6Gbps линкът, без дори проца да е на 100%, а някъде около 60.

В реални условия тези скорости рядко се оползотворяват, но....

Мога едновременно да прекарвам трансфер на голям файл върху различни дискове на сървъра, ЕДНОВРЕМЕННО с това държа няколко виртуални машини на сървъра и ги рънвам директно през мрежата, а там пикове от и към файловете, заедно с кеширанията на двете машини, се постигат относително големи, поне мрежовия слой не е ботълнек в случая, заедно с по-големия си капацитет за малки заявки спрямо 10-пъти по-бавния 1Gbps.

Отделно, ако на десктопа съм работил по някой голям файл, той е кеширан често целия (примерно 10ГБ), и при прехвърлянето му към сървъра, това става с над 700МБ/с, на сървъра се кешира също така докато записва, т.е. зависи и от обема памет там, но в случая с такива скорости се трансферира, после сървъра "му мисли" да разтоварва неговия кеш на диска.

Изобщо, доста доволно и откри различни нови възможности.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...