Beiträge von Niemand

    Hi,


    Nachdem hier schon seit Jahren nichts mehr passiert und scheinbar alles nun unter elefacts.de läuft (ist zumindest offensichtlich so), bleibt die Frage, ob hier nochmal neue Artikel erscheinen werden, oder ob man den Bookmark löschen kann?


    Schade wäre es, die Seite hatte Potential.

    Oh dass die Graka immer verbaut sein muss wusste ich nicht.


    Naja da einzige was tatsächlich ein bisschen Leistung braucht wäre das transcoding von Emby.


    Würdeat su also sagen ein 4 Core wäre angemessener?

    Das ist auch Quatsch.
    Ich habe drei selbstgebaute Server mit Endanwender Hardware (AM3+) und KEINER davon hat eine Grafikkarte. Die Zeiten, dass das BIOS unbedingt eine braucht sind schon lange vorbei.


    Ich würde dir zum Ryzen 1700 oder gar 2700 raten. von Asrock gibt es ein Servermainboard mit X470 Chipsatz für AM4. Mit ECC musst du gucken, aber die Samsung B-Dies sollen da wohl laufen.
    Zu Proxmox: Gute Wahl! Ich empfehle dir aber Nextcloud nicht in ner VM zu installieren, sondern das vorbereitete Turnkey-LXC Paket zu nutzen. Weniger overhead :) das selbe gilt für Emby und Git (gitea oder gitlab gibt es da wohl). Aber als Embyalternative würde ich dir Jellyfin empfehlen (ein Fork): Open Source und so, was Emby nicht mehr ist :)


    Zum HBA: Guck mal nach einer gebrauchten Dell Perc H310 oder H320. Die dann auf IT-Modus flashen. Gibt es günstig in der Bucht. Genau wie günstige SFP+ 10Gbit Karten (Mellanox ConnectX-2 oder besser -3).


    Aber zu FreeNAS: Ich würde ZFS direkt unter Proxmox laufen lassen. Weniger overhead und weniger Kopfschmerzen. Ich nutze das seit mehreren Jahren.

    Wenn man es nutzen möchte, ist ECC nicht verkehrt.


    Zu FreeNAS: Ich hatte Probleme es auf AM3+ gescheit ans laufen zu bekommen. Auch musst du beachten, dass unter FreeNAS default die CPU nicht runtergetaktet wird, was bei einem Bulldozer schon arg teuer werden kann. FreeNAS kannst du übrigens auch auf einem USB-Stick installieren, was sogar auch empfohlen wird.

    Mag sein, dass es kinderleicht zu bewerkstelligen ist, das heisst aber noch lange nicht, dass es problemfrei läuft und mir keine endlose Admin-Arbeit beschert.
    Und von wegen "unrealistischen Preisen", unter 100 USD ist man bei unRAID dabei. Für Hardware, auf der ZFS überhaupt was bringt (z. B. min. 1 GB ECC-RAM pro TB Disk), muss man einiges mehr ausgeben, nebst der Tatsache, dass Storage-Ausbau nur in ganzen VDEVs geht. Hat man schon 5 Platten in einem RAIDZ1, kann man nicht etwa einfach eine weitere Platte dazuhängen, sondern muss nochmal 5 Platten für eine Erweiterung dazukaufen... Geht ordentlich ins Geld und ist das Gegenteil von dem, was man im SOHO-Bereich an Flexibiliät braucht. Nicht falsch verstehen, ZFS ist das ultimative Filesystem, aber es ist wirklich nicht so, als dass es überall Sinn macht.

    dann hast du wohl was falsch gemacht. ich wähle aus, fertig.
    und über die Voraussetzungen von ZFS solltest du dich auch mal genauer schlau machen:
    1. ECC ist zwar sinnvoll, aber nicht notwendig. mein Fileserver läuft prima ohne ECC.
    2. Das 1GB Ram/ TB ist auch ein Mythos, der sich hartnäckig hält. mein Fileserver (24 TB) kommt mit seinen 16GB auch sehr gut klar. ZFS cached halt lesend in den RAM, so würde das auch mit 4 GB funktionieren, wenn auch langsamer ist als es sein könnte. Dass man nur komplette vdevs hinzufügen kann stimmt zwar, nichtsdestotrotz muss der zweite vdev nicht identisch groß zum ersten sein. Deshalb ist es meistens eh sinnvoll auf striped mirror zu setzen. Und wenn man sinnvoll und gescheit 10G mit mehreren Zugriffen realisieren möchte, ist ZFS mMn unabdingbar.


    @hitman: Dass Proxmox unabdingbar Geld kostet ist humbug. Ja, man kann sich Support erkaufen und ja, man erhält dann neue Funktionen früher. Die kommen aber auch später zum "normalen" proxmox und das Forum ist auch so eine gute Anlaufstelle. Ich nutze Proxmox nun seit 4 Jahren und habe bisher keine einzige Lizenz benötigt.


    Ich habe mir Unraid angeschaut, ist mir aber aus vielen Gründen nicht ausreichend:
    - wie gesagt zu teuer
    - kein ZFS
    - kein RAID, d.h. lesend limitiert die HDD und schreibend eine absolute Katastrohpe (50mb/s und sowas).
    - Es gibt zwar SSD-Caching, aber auch hier: Ist der einmal voll, wird es sau langsam. und nur 1x pro Nacht auf die HDDs transferrieren? No-Go.
    Ich nutze meinen Fileserver nicht nur für Mediendateien, sondern hier werden auch Programme etc installiert. 10G kann man mMn nicht sinnvoll mit Unraid nutzen, es sei denn, man kauft sich ein viele kleine oder wenige große, teure Enterprise-SSDs.
    Ich habe in meiner Konfiguration lesend 600 MB/s bzw 970 MB/s (cached) und schreibend zwischen 400 und 600 MB/s. Und das ohne eine einzige SSD.

    das stimmt so nicht. Mit Proxmox ist das Durchreichen von Grafikkarten oder ähnliches auch kinderleicht zu bewerkstelligen. Und ich mag es absolut nicht, wenn mein Fileserver auch zugleich der Hypervisor ist. Der größte Nachteil von Unraid ist, neben den unrealistischen Preisen, dass kein ZFS unterstützt wird.
    Da OMV aber irgendwie immer mehr den Anschein hegt, dass man keine Zusatzprogramme wie Plex, Vbox oder so mehr weiterentwickeln möchte, tendiere ich auch eher dazu auf was anderes umzusteigen. Denkbar wäre auch hier Proxmox zu nutzen und dann nur einen Plex-CT zu installieren und die SMB/NFS Freigaben per Hand zu machen.

    Ich hätte an deiner Stelle Proxmox genutzt. Dort dann aus den Datenfestplatten ein striped ZFS-Mirror erstellt. Vorteil hier ist u.a. dass man es gut erweitern kann (einfach zwei neue HDDs als mirror hinzufügen) und dass hier auch nur das Mirror-Pärchen läuft, auf dem gerade zugegriffen wird. ZFS kannst du gut in der Proxmox-GUI erstellen. Lediglich für die Samba-Freigabe musst du dich ans Terminal begeben. So kannst du den Proxmox selbst als Hypervisor und NAS in einem nutzen. Der Vorteil ist jedoch, dass du ohne probleme weitere Programme in LXC-Containern (Stichwort: Turnkey-Linux) installieren kannst und ggf. auch noch Windows-VMs installieren kannst, wo du auch mit einem einfachen Klick Grafikkarten o.ä. durchreichen kannst.


    Alternativ wäre auch möglich gewesen zwei unterschiedliche Pools zu verwenden (1* striped mirror + 1*ZFSRaidZ1/2/3).


    Raid 5 sollte meiner Meinung nach nicht mehr empfohlen werden, deshalb ist RaidZ1 auch eher zu vermeiden und auf mind. RaidZ2 zu setzen.


    OMV ist zwar ganz nett, ich habe es auch jahrelang eingesetzt. Mittlerweile nutze ich es nur noch auf meinem Fileserver, wo nichts anderes ausser eine Samba-Freigabe meines ZFS-Pools existiert. Alle anderen Funktionen sind bei OMV eher nur eine Bastelei. Kostprobe: Virtualbox funktioniert mal, mal nicht, mal wurde es eingstellt, dann doch weiter entwickelt, dann muss man dieses dort und jenes da ändern, damit es funktioniert... Docker hat mir drei mal das gesamte System zerschossen... und andere skurrile Fehlermeldungen wo es zu lange dauert, die alle aufzuzählen.
    Wollte ursprünglich FreeNAS oder XigmaNAS verwenden, das kam mit meiner Hardware jedoch nicht ganz gut zurecht.

    Naja, ZFS hat mit "ZFS Raidz1" ja auch sowas wie ein RAID 5.


    Ich setze sowohl Raidz1 als auch striped mirrors (ähnlich wie ein RAID10) ein. Bin sehr zufrieden. Mein striped mirror schafft so ca 700-1000mb/s lesen und 200-400 mb/s schreibend. Der Server ist per 10GBe angebunden.

    Es geht nicht um die Erwärmung der Kabel, sondern darum, dass die einzlenen Litzen im Stecker in einer Art Kunststoffmasse sitzen und diese gerne mal nachgibt und es somit zu einem Kurzschluss kommt.


    Du möchtest Belege? Google ist dein Freund ;)


    Hier eine kleine Auswahl (es geht zwar meist um Molex-Sata adapter, aber da hier der S-ATA anschluss das Problem ist, ist die andere Seite eigentlich egal)


    https://www.hardwareluxx.de/co…r-abgefackelt-991623.html
    https://www.reddit.com/r/techs…e_molex_to_sata_adapters/


    http://www.stevenhale.co.uk/main/2012/05/sata-plug-melted/


    http://www.stevenhale.co.uk/ma…/more-sata-adapter-fires/
    https://www.reddit.com/r/litec…_powered_riser_on_r9_270/
    https://www.thegeekpub.com/11743/best-pcie-riser-cards/
    https://hardforum.com/threads/…re-damage-inside.1903722/

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    das die anderen bei Überlastung (also die von dir angesprochene Erhitzung) auch ein Problem haben können, sieht man hier: https://forums.geforce.com/def…-converters/post/5121825/ die anderen "billigen" sind jedoch nicht überlastet gewesen.


    Nachdem ich davon gehört habe, habe ich alle von diesen billigen-brandgefährlichen Schrottteilen aus meinen Systemen geworfen.

    Zu 1:
    DIe Cloud ist auch per AES verschlüsselt


    Zu 2: Im Router ist der Outside-Port beispielsweise 9000 und der inside-Port 443. Die VM denkt also, sie würde per 443 aufgerufen.
    Wie gesagt sind das unterschiedliche VMs, also als eigenständige Server anzusehen.


    Zu 3: sowohl die Website als auch die Cloud ist nur per SSL aufrufbar. Port 80 wird automatisch auf 443 weitergeleitet.


    Fail2ban ist zwar auch installiert, aber so muss ich jeden Server einzeln warten.


    Ich werde es wohl mit VLANs versuchen.

    Achtung, niemals solche S-ATA Adapter verwenden. Diese sind in der Vergangenheit schon öfters abgebrannt. Ich finde zwar keine S-ATA --> S-ATA Adapter, aber die sollten so aussehen: https://www.amazon.de/SIENOC-Stromkabel-Stecker-Buchse-Adapter/dp/B00MGFX2ZC/ref=sr_1_60?ie=UTF8&qid=1524825870&sr=8-60&keywords=s-ata+adapter


    also mit einem sichtbaren Metallanschluss.

    Hi,
    ich habe hier einen Proxmox Server mit zwei Webserver-VMs.


    Beide VMs mit den Webservern sind per SSL (einmal von Strato und einmal per letsencrypt/certbot) verschlüsselt und nutzen Apache2.
    Es handelt sich hierbei um Nextcloud und Wordpress. Beide besitzen unterschiedliche Domains, während die Nextcloud per Port-Forwarding von Port xyz auf 443 umgeleitet wird. Da dies erstens nicht praktikabel ist und ich zweitens somit zu viele potentielle Schwachstellen habe, möchte ich lediglich den Reverseproxy ins Internet lassen und dieser soll dann die Aufrufe von http://www.domain_A.de an https://192.168.111.2 weiterleiten, während http://www.domain_B.de auf "https://192.168.111.3" hinleitet.


    wenn mir jemand ne DAU-kompatible Anleitung geben könnte, wäre das echt super [Blockierte Grafik: https://www.hardwareluxx.de/community/images/smilies/graemlins/smile.gif]


    ich habe gegoogled, bin aber entweder zu doof für die Anleitungen da oder zu unbegabt. *kopfkratz*

    Ich habe OMV4 und würde auch gerne mal Docker testen, da es wohl noch kein Emby-Plugin für die 4er gibt.


    Aber was muss ich da machen? Habe den Container erstellt und wenn ich "Start" drücke passiert...nichts...

    Wenn man Programme darauf installieren will, sind 400mb/s lesend/schreibend schon bedeutend besser als 120 mb/s ;)


    Mein OMV-Server mit mergerfs cached viel mehr im Ram als mein Proxmox-Server mit ZFS.

    ZFS rennt bei mir schon im Proxmox-Server (der übrigens auch ECC unterstützt) ;)


    Da ist mir ECC wichtig, da hier meine Nextcloud mit vielen sehr wichtigen Daten drauf ist (natürlich verschlüsselt und gesichert per Backup).


    Vielleicht lasse ich auch den A10 6800k im Fileserver/SAN drin. Dampf hat er ausreichend und viel sparsamer sind andere Systeme jetzt auch nicht. Das einzige Problem was ich gerade gesehen habe ist, dass mein Board nur noch einen PCI-E 1x (hier passt ein Syba 4x rein) und den PCI-E 2.0 16X frei hat. also ist hier wirklich bei 12 + 8 Onboard = 20 schluss. der 4x Port wird schon von der 10 GBe Karte belegt. Aber 20 Festplatten sollte ja reichen. 12 * 3 TB + 5* 1 TB 2.5" HDD + 2 SSDs als Cache sollte ja reichen.
    Das sind 30TB + 6TB Parität für den Pool und 2.5 TB für ZFS. Wenn es dann mal eng werden würde, kann man ja noch die Platten gegen größere tauschen. Finde halt nur blöd, dass man es nicht so wirklich nacheinander machen kann, da die größere dann als Parität "draufgeht" und man erstmal zwei größere Platten als Parität "verschwendet" und man keinen größeren Speicherplatz zur Verfügung hat.