The Debian User Group in Vienna

Text archives Help


Re: [Debienna] N54L und LVM Raid 5 performance


Chronological Thread 
  • From: Cave <cave AT cavebeat.org>
  • To: debienna AT lists.debienna.at
  • Subject: Re: [Debienna] N54L und LVM Raid 5 performance
  • Date: Mon, 02 Jan 2017 11:18:17 +0100

Hi,

das klingt mal interessant. Da werd ich meinen N40L womöglich auch nochmal tunen muessen.

Unabhängig davon ist der BiosMOD fuer die N36/40/56L Reihe zu empfehlen um alle 5 SATA Ports plus den e-SATA auf AHCI und 3 GBIT/s freizuschalten.

Lg cave

Am 02. Jänner 2017 08:05:30 MEZ, schrieb Sebastian Bachmann <me AT free-minds.net>:
Hi!

On Mon, Jan 02, 2017 at 12:11:36AM +0100, Markus Raab wrote:
Hallo Sebastian,

Am Samstag, 31. Dezember 2016, 15:54:01 schrieb Sebastian Bachmann:
Und der rennt als PATA... Ok damit wird vermutlich die Leistung der SSD
nicht wirklich ausgenutzt aber sollte die HDDs zumindest nicht irgendwie
ausbremsen... (Außer halt von der Gesamt IO vom System)

Hängt die eine Platte auch im RAID? Da bei Zugriffen üblicherweise mehrere
Platten involviert sind, kann eine einzelne schon eine deutliche Auswirkung
haben. Ein gemeinsamer Bus ist natürlich auch problematisch, aber eigentlich
sollte SATA mehr als genug Reserven haben?

Das board hat scheinbar zwei Controller: den 4-Port SATA Controller und einen
PATA controller der auf einen SATA Port hat.
Am SATA Controller hängen vier platten, davon 3 in einem RAID5.

Jetzt habe ich gestern recht viel herumprobiert und LVM Doku gelesen und ein
paar interessante Dinge gefunden:

* Der Kernel 3.16 ist schlecht. Ich hab jetzt 4.8 drauf und die
Schreibgeschwindigkeit hat sich verdoppelt bis verdreifacht.
* Der Kernel 3.16 hat einen null pointer derefernece bug, wenn man versucht über
dmsetup die stripe_cache size zu setzen
* Schaltet man das unter 4.8 von 256 auf 16384, kann man nochmal 30-50MB/s
rausholen...

Leider bietet meines wissens LVM keine Möglichkeit diesen Wert peristent zu
setzen.
Was man machen kann ist, mittels dmsetup das raid device neu laden und in den
raid_params die stripe_cache größe mit übergeben.
Es gibt da lvm udev hooks, evt kann man das da irgendwie einbauen, hab aber noch
nix gefunden dazu.

Mit dem neuen Kernel komme ich jedenfalls sehr viel näher an die 100% Auslastung
einer einzelnen Platte. Die sollte so bei ca 100MB/s liegen, mit größerem
stripe_cache komme ich immerhin schon auf 175MB/s - was mehr als genug ist, da
ich meist sowieso nur über das Netzwerk schreibe und dort bei weniger als
125MB/s schluss ist...

Die maximale Bandbreite von einem PCI bus, ist ja Taktrate * Busbreite, in
meinem Fall also 66MHz * 64bit, ca 530MB/s. Schreibt man auf das RAID5 so werden
bei 100MB/s Übertragungsrate tatsächlich 150MB/s genutzt, da auf jede Platte im
Verbund mit etwa 50MB/s geschrieben wird. Sehen kann man das übrigens wunderbar
mit iostat. dH die maximale Bandbreite an dem Controller ist sowieso limitiert
mit etwa 175MB/s pro Platte - dH 4 SATA II Platten kann der Controller nicht
vollständig auslasten. Bei meinen sollte das kein Problem sein, da die nach
anderen Benchmarks nur max ca 150MB/s zusammenbringen.
Sprich, bei einem RAID5 dürfte man maximal 350MB/s schreibend erwarten.
Bei der lesegeschwindigkeit bin ich schon bei ca 300MB/s angekommen...
Wobei man jetzt auch sagen muss, das die CPU dann schon viel Zeit im Kernel beim
mdraid treiber verbringt... Also um da noch weitere MB/s rauszukitzeln ist die
CPU vermute ich zu schwach.
Oder bekommt jemand tatsächlich die volle Bandbreite vom SATA Controller
ausgenutzt?

LG Sebastian



Archive powered by MHonArc 2.6.18.

Top of page