News

 

 

Dienstag, 27.12.11: Hier die Details zu den technischen Problemen: Am Morgen des 25. streikte das Hauptswitch im Keller. Deshalb hatte der technische Notdienst übergangsweise ein 10 Mbit/s Hub eingerichtet. Zusätzlich streikte am Abend auch noch die zur Zeit nicht im Betrieb befindliche ULV in einer Testkonfiguration. Wie in der Zeit des letzten Jahreswechsels streiken auch diesmal viele technische Einrichtungen in diesem Zeitraum. Am Morgen des 26. wurde das 10Mbit/s Hub durch ein provisorisches 1000Mbit/s Switch ersetzt. Nun funktionierte das Netzwerk wieder einigermaßen normal. Heute Morgen hat sich ein Techniker das defekte Switch genauer angeschaut, konnte den Fehler aber nicht finden. Jedoch konnte der Fehler auf das Netzteil eingegrenzt werden. Das Switch ist jetzt wieder in Betrieb, jedoch mit einer besseren elektromagnetischen Abschirmung. Es ist zu hoffen, dass es wirklich nur daran lag.

 

Sonntag, 25.12.11: Die heute aufgetretenen technischen Probleme gibt es im Forum zum Nachlesen, bis sie behoben werden.
Bened Technologie wünscht allen noch frohe Feiertage und einen guten Start ins neue Jahr.

 

Freitag, 16.12.11: Heute starteten nach einem planmäßigen Neustart nach dem Einspielen von Updates einige Systemdienste des Servers nicht mehr automatisch. Es war mal wieder ein hängender Proxyserver dafür verantwortlich. Nach dem Leeren des Proxycaches lief wieder alles (das Leeren dauert ziemlich lange, da im Cache so viele kleine Dateien liegen). Es ist sehr ärgerlich, dass immer wieder dieser eine Systemdienst viele andere sehr wichtige Systemdienste beeinträchtigt.

 

Freitag, 18.11.11: Gestern um 22:58 Uhr ging der Server aus, weil, wie sich im Nachhinein herausstellte, jemand unachtsam war und mit seiner Bohrmaschine den Leistungsschutzschalter ausgelöst hatte. Der Server startete wie eingestellt automatisch neu, als wieder Spannung an ihm anlag. Um 23:20 Uhr fror er jedoch ein, wodurch um ca. 00:00 Uhr auffiel, dass etwas passiert war. Nachdem er sich nicht mehr anpingen lies, noch irgendein anderes Lebenszeichen von sich gab, erbarmte sich ein Techniker und ging in den Serverraum, um nach dem Rechten zu schauen. Das Erste was auffiel, ist, dass es komisch roch. Nachdem der lokale Monitor eingeschaltet war, konnte man den eingefrorenen Bildschimschoner sehen. Auf Eingaben reagierte der Server nicht mehr. Nach einem Reset zeigte der Hardwaremonitor im BIOS normale Temperaturwerte und im Vergleich zum neuen Netzteil andere Spannungswerte. Dennoch waren die Werte nicht besonders auffällig. Nun wurde der Server geöffnet, wobei die Nase des Technikers als Quelle des seltsamen Geruchs das Netzteil feststellte. Das Netzteil wurde auf Verdacht getauscht, obwohl der Server mit dem alten Netzteil noch bootete. Als neues Netzteil wurde ein "CHANNEL WELL" Netzteil der gleichen Serie wie das Alte, nur mit einer etwas geringerer Maximalleistung eingebaut. Für zusätzliche Kühlung sorgt hier der integrierte 80mm Lüfter, dessen temeraturabhängige Steuerung, im Gegensatz zu dem alten Netzteil, von dem BTC Techniker deaktiviert wurde. Auch macht der Lüfter aufgrund des geringeren Verschleißes keine so lauten und unregelmäßige Geräusche mehr. Das alte Netzteil wurde geöffnet, jedoch konnte man alleine durch hinschauen keinen Fehler erkennen. Evtl. haben Metallstaubablagerungen (Im Serverraum befindet sich auch von jemand Anderem eine kleine Werkstatt) zu einem Fehler im Netzteil geführt. Der meiste Staub wurde aus dem Server gesaugt. Während den Arbeiten wurde der Serverraum wieder elektrisch beheizt. Hier ist das alte Netzteil zu sehen:

 

Donnerstag, 03.11.11: Es geht drunter und drüber in der IT. Erst ein außerplanmäßiger Neustart des Servers vor ein paar Wochen, und dann noch der Ausfall der Passwortverwaltung. Die Datenbankdatei war selbst mit Easy Recovery und dessen Signatur-Suche nicht mehr zu finden. Letztendlich habe ich den Datenträger mit einem Hexeditor geöffnet und den Header der Datenbankdatei gesucht und gefunden. So ist zumindest hier nichts schlimmeres passiert. Heute streikte jedoch noch der GPC1, als ich ein gerade verwendetes Mobiltelefon darauf legte. Obwohl dieser PC eigentlich ordnungsgemäß abgeschirmt sein sollte, schaltete er bei diesem Szenario ständig ab und ließ sich nur wieder einschalten, nachdem er eine kurze Zeit Spannungsfrei geschalten wurde. Da ich das Problem nicht genauer kenne bleibt wohl die einfachste Möglichkeit Mobiltelefone von GPC1 fernzuhalten.

 

Dienstag, 13.09.11: Heute ist Patchday. Eigentlich gab es keine so sicherheitskritischen Updates, dass sie gemacht werden hätten müssen, aber da der Server auf die neue Netzwerkkarte wartete, machten wir trotzdem die Updates. Nach dem Herunterfahren war die Netzwerkkarte, dank guter Vorbereitung, in wenigen Sekunden getauscht, sodass der Server schnell wieder angefahren werden konnte. Die längste Downtime der Aktion wurde durch die anschließende Neukonfiguration verursacht. Es mussten die Konfiguration für TCP/IP neu eingegeben werden und die Firewallregeln auf die neue Netzwerkkarte angewendet werden. Jetzt ist der Server wieder mit 100Mbit/s Vollduplex angebunden.

 

Dienstag, 30.08.11: In den letzten Wochen kam es immer wieder zu Problemen mit der Erreichbarkeit des Servers, da der DNS Server zum Teil mit falschen IP-Adressen versorgt wurde. Das Problem wurde mittlerweile behoben. Zusätzliche Probleme verursachten seit dem Morgen des 28.08.11 eine defekte Netzwerkkarte. Zitat aus dem Foreneintrag:

"Seit heute Morgen gibt es Probleme mit der Netzwerkanbindung des Servers. Hauptswitch und Netzwerkkarte brüllten sich regelrecht an. Im Moment läuft die Netzwerkverbindung im 10 Mbit/s Halbduplexmodus, um den Fehler zu vermeiden. Bei Gelegenheit muss die Netzwerkkarte getauscht werden. Ich hoffe mal dass die jetzige "Failsafekonfiguration" wenigstens länger als ein paar Minuten hält."

 

Montag, 16.05.11: Als ich mich heute am Server anmeldete, bekam ich die schockierende Meldung, dass er unerwartet heruntergefahren wurde. Ich habe es erst jetzt gemerkt, da der Server automatisch neu startete und auch keine Probleme auftauchten. Ich vermute, dass es entweder ein Fehler in der Leistungsversorgung gab, oder die CPU temporär zu heiß wurde. Wie ich den Vorfall kommentiert habe, als mich Windows gefragt hat, weshalb der Computer unerwartet heruntergefahren wurde ist hier zu sehen:

 

Donnerstag, 10.02.11: Gestern streikte der Server nach dem Neustart nach den Updates. Bis der Fehler gefunden und behoben wurde, war es Donnerstag morgen. Nachdem erst ein Hardwaredefekt vermutet wurde und danach die Windows Updates in Verdacht gerieten, stellte sich heraus, dass der Proxyserver den Fehler verursachte. Zudem mussten einige Einstellungen am Server geändert werden. Aufgrund des mehrstündigen Aufenthalts der Techniker musste der sonst kühle Serverraum elektrisch beheizt werden. Der Server war viele Stunden nicht erreichbar.

 

Montag, 16.01.2011: Die BTC-IT hatte einen schlechten Start ins neue Jahr. Nachdem Ende Dezember eine Festplatte im Server ausfiel und deshalb zwei außerplanmäßige Neustarts durchgeführt wurden, streikte heute auch noch der Terminalserver und zwang BTC zu einem dritten außerplanmäßigen Neustart. Dieser musse durchgeführt werden, da sich ein bestimmter Systemdienst nicht alleine neustarten ließ. Weiterhin musste BTC feststellen, dass nach einem Windows-Update 2 E-Mail Konten der Domänen "bened.de" und "darklay.de" gesperrt waren und sich nicht ohne Weiteres entsperren ließen. Auch dieses Problem ist mittlerweile behoben. Weiterhin pfeift der grabstein-pc (GPC1) aus allen Löchern und schreit in Form von mehreren Abstürzen nach neuen ElKos. Es gibt also noch eine Menge Arbeit für die BTC-IT.

 

Montag, 20.12.2010: Am Morgen des 12.12.10 stellte BTC fest, dass die Telefonverbindung nach draußen nicht mehr funktionierte. Die DSL funktionierte noch. Doch später fiel auch diese aus. Laut Auskunft der Telekom erneut wegen eines Wasserschadens. Seit heute funktioniert auch die DSL wieder und der Server ist wieder online. Soviel ich mich zurückerinnere ist das die längste Downtime, die der Server je hatte. Ich entschuldige mich hiermit bei allen, die etwas bei BTC gehostet hatten, oder einen bei BTC gehosteten Dienst nicht in Anspruch nehmen konnten. BTC ist weiterhin auf der Suche nach einer zuverlässigen WCDMA/GSM Lösung für den Notfall. BTC bittet um Ihr Verständnis und wünscht Ihnen schöne Feiertage.

 

Sonntag, 07.11.2010: Endlich habe ich das Problem mit den NDRs in den Griff gekriegt. Leider läuft die Notleistungsversorgung dank unter mysteriösen Umständen kaputtgegangener Batterie immernoch nicht. Ach ja, das UMTS-Notfallsystem ging im ersten Außeneinsatz drauf...

 

Mittwoch, 13.10.2010: Seit heute hat der Server WC1 eine Notleistungsversorgung. Der einzige Haken an der Sache ist, dass sie noch nicht funktioniert, da wahrscheinlich ein Fehler an der Ladeelektronik der Batterie vorliegt. BTC rechnet damit, dass das Problem in den nächsten Tagen behoben wird und so der Server gegen Spannungsausfälle gesichert ist.

 

Donnerstag, 07.10.2010: Heute haben wir das UMTS-Notfallsystem erfolgreich in Betrieb genommen. Auch wenn die Technik dafür schon lange einsatzbereit war, haben wir es bisher wegen der fehlenden Notwendigkeit nicht in Betrieb genommen. Heute haben wir uns dann endlich dafür Zeit genommen. Der Betrieb heute verlief ohne große Probleme. Als wir vor einigen Wochen die Hardware fertiggestellt hatten, mussten wir allerdings noch etwas an ihr umlöten. Was genau werden wir nicht veröffentlichen, da uns sonst jeder Elektrotechniker den Kopf abreisen wird.

 

Donnerstag, 23.09.2010: Dieser Eintrag ist schon seit Tagen fällig. Die Sache mit dem WorldCom Netzwerk sollte tatsächlich auf einen Verkauf hinauslaufen. BTC fühlt sich hier etwas verarscht. Da wir das Verkaufsangebot abgelehnt haben, rechnen wir damit, bei nächster Gelegenheit erpresst zu werden, um das WorldCom Netzwerk doch noch rauszurücken.

 

Sonntag, 12.09.2010: Heute gab es Gespräche mit dem Mutterkonzern über die bedingungslose Durchleitung von Netzwerktraffic für alle WorldCom Kunden. Dabei sieht der Mutterkonzern vor, die Anschaffungskosten des WorldCom Netzwerkes zu übernehmen, wenn BTC die bedingungslose Durchleitung von Netzwerktraffic für alle Kunden gewährleistet. Einem Verkauf des WorldCom Netzes würde dies nicht darstellen. Betroffen wären die aktuell unterbrochene Leitung 1, die Leitung 2 und die Leitung UPL1. BTC überlegt sich, das Angebot anzunehmen, da ansonsten die Anbindung von UPL1 und Non-BTC evtl. über ein teures Ersatzsystem gewährleistet werden müsste. Da aber nach den Verhandlungen rufe laut wurden, dass die Auszahlung von BTC einem Verkauf gleich käme, ist es unwahrscheinlich, dass eine schnelle Einigung erzielt wird. Wir verfügen derzeit zum Glück wieder über eine sichere Anbindung an die DSL und es ist für die nächsten Tage mit der Fertigstellung eines dauereinsatzfähigen Notfallsystems zu rechnen.

 

Sonntag, 29.08.2010: Ein Aufständiger hat unser Worldcom-Netz von der DSL getrennt. Deshalb ist davon auszugehen, dass der Server301 auf unbestimmte Zeit nicht erreichbar sein wird. Leider haben wir noch kein dauereinsatzfähiges UMTS-Notfallsystem. Das Notfallsystem, das wir haben, eignet sich nicht für den Dauerbetrieb. Ich hoffe, ich kann das System so oft es geht on schalten. Mails bitte an meine O2/Loop Mail-Adresse schicken, bis ich Entwarnung gebe!

 

Sonntag, 15.08.2010: Da durch einen Fehler von BTC in letzter Zeit immer mehr Spam an die Adresse btc@bened.de gesendet wurde, haben wir diese Adresse abgeschaltet. Bitte Mails nur noch an die neue Adresse schicken, da an die alte Adresse geschickte Mails nicht mehr ankommen. Danke.

 

Mittwoch, 21.07.2010: Es kommt in letzter Zeit immer wieder zu Ausfällen der DSL. Dafür ist mit hoher Wahrscheinlichkeit die Deutsche Telekom verantwortlich. Zusätzlich gab es gestern Morgen ein Ausfall im Dyndns-System. Weder Modemrouterswitschap noch der Dienst auf WC1 konnte die aktuelle IP an den DNS-Server übermitteln. BTC konnte das Problem beheben, bevor das Notfallsystem greifen konnte.

 

Mittwoch, 26.05.2010: Es gab erneut ein Problem mit den Switches. Das 2. kleine Switch, das oben in der BTC Zentrale stand, konnte nicht mehr so richtig mit dem Hauptswitch reden. Das kleine schwarze Switch wurde regelrecht von dem Hauptswitch "angebrüllt". BTC hat sich schließlich dazu entschlossen, auch das 2. schwarze kleine Switch aus dem Verkehr zu ziehen. Es wurde ersetzt durch das Hauptswitch. Als neues Hauptswitch kommt jetzt folgendes zum Einsatz:

 

Freitag, 08.01.10: Gestern Abend war der Server plötzlich offline. Als ich nachschauen ging, stellte ich fest, dass er aufgrund eines thermischen Problems heruntergefahren war (sagte das BIOS). Also schaltete ich den Server aus, zog alle Kabel und nahm ihn mit hoch in das BTC Büro. Als ich den genauen Fehler suchte, schwankte ich zwischen dem CPU-Lüfter und dem Netzteil-Lüfter, da der Netzteil-Lüfter manchmal laut wird. Um sicher zu gehen lies ich die CPU nochmal so richtig kochen, um festzustellen, weshalb die CPU zu heiß wurde. Dabei wurde mir klar, dass der Luftdurchsatz des Netzteiles noch ausreichend ist und die Drehzahl des CPU-Lüfters zu niedrig war, sodass bei 96°C die CPU durch die Notabschaltung abgeschaltet wurde. Also tauschte ich den Lüfter gegen einen anderen, bei dem ich jedoch vorher mit einem Bohrer die Schrauben versenken musste, damit sie lange genug unten wieder herausragen um den Lüfter fest mit dem Kühler zu verbinden. Nun läuft das gute Stück wieder.

Der Beweis für die 96°C CPU Temperatur aus AIDA32:

Der Alte Lüfter:

Der neue Lüfter eingebaut:

 

Freitag, 13.11.09: Vorgestern ist unser BTC Netzwerk abgeschmiert. Auch der Server war betroffen. Der Modemrouterswitchap wollte einfach nicht mehr mit unserem Hauptswitch reden... Weil es mit einem baugleichen Switch auch nicht mehr ging, war zwar davon auszugehen, dass der Modemrouterswitchap einen Knacks hat. Es war jedoch billiger ein neues Switch zu kaufen, das sich mit dem Modemrouterswitchap verträgt. Nachdem wir vorgestern Abend den Fehler bemerkt und gesucht hatten, haben wir das Hauptswitch provisorisch mit einem alten 10Mbit/s Hub ersetzt. Das Netzwerk lief dann endlich wieder, wenn auch nicht sehr gut. Seit gestern ist das neue Switch in Betrieb. Es funktioniert prächtig.

Das alte Switch:

Das Provisorisch verwendete Hub:

Das neue Switch:

 

Sonntag, 18.10.09: In der Nacht von Dienstag, dem 13.10.09 auf Mittwoch, den 14.10.09 wurde eine 20 GB Platte gegen eine 250 GB Platte getauscht. Jetzt hat der Server eine Gesamtspeicherkapazität von ~252 GiB.

 

Dienstag, 11.08.09: Vorgestern gab es mal wieder ein Problem mit dem DNS-System. Wie es aussieht war diesmal der Modemrouterswitchap für das Problem verantwortlich. Er hat wohl eine ungültige IP an das DNS-System von Tiggerswelt geliefert.

Erst ab 4 Uhr gestern lief wieder alles. Damit nicht mehr der Server unerreichbar bleibt, nur weil es Kommunikationsprobleme zwischen Modemrouterswitchap und Tiggerswelt gibt, Prüft und updatet nun der Server nicht nur die IP-Adresse von server301.dyndns.org sondern auch von bened.de. Falls der Modemrouterswitchap also in Zukunft das DNS Update vermasselt, merkt trotzdem der Server, dass sich die IP-Adresse geändert hat und aktualisiert sie.

 

Montag, 11.05.09: Die Ursache des Ausfalls des DNS-Systems ist geklärt. Es war doch nicht der Modemrouterswitchap von BTC verantwortlich, sondern Tiggerswelt. BTC wurde nicht darüber informiert, dass die Domäne für das DNS Update geändert wurde, weshalb das Update fehlschlug. Ich entschuldige mich hiermit, bei allen, die etwas auf WC1 gehostet hatten und nicht darauf zugreifen konnten. Es tut mir Leid. Damit in Zukunft bei einer erneuten Störung des DNS Systems wenigstens der Webserver erreichbar bleibt, sind jetzt als Fallback Frameweiterleitungen eingerichtet, die spätestens 30 Stunden nach dem letzten DNS Update greifen. Und für alle Fälle bleibt der Server über die Fallback Domäne "server301.dyndns.org" erreichbar. Diese wird doch nicht, wie ursprünglich geplant, abgeschaltet.

Sonntag, 10.05.09: Seit gestern scheint sich unser Modemrouterswitchap zu weigern die IP der Domäne bened.de upzudaten. Die Domäne server301.dyndns.org funktionierte weiterhin, da sie von WC1 die DNS Updates bekommt. Heute morgen habe ich mich dann schließlich erbarmt, und die IP der Domäne manuell aktualisiert. Seitdem ist bened.de wieder erreichbar. Nun beobachte ich, ob nach der nächsten Zwangstrennung das DNS wieder automatisch upgedatet wird, oder ob ich wieder nachhelfen muss. Wenn das automatische Update dann wieder funktioniert, liegt es nahe, dass es zum Zeitpunkt, als der Modemrouterswitchap dem DNS-System von Tiggerswelt die aktuelle IP mitteilen wollte, ein Verbindungsproblem zu deren Server bestand. Da der Modemrouterswitchap ein fehlgeschlagenes DNS-Update anscheinend nicht nachholt, werde ich wohl die Domäne bened.de über WC1 updaten lassen, und server301.dyndns.org über dem Modemrouterswitchap.

 

Dienstag, 28.04.09: Ab heute rechnet der Server von BTC mit bei "World Community Grid", um der Wissenschaft zu helfen und ungenützte Rechenleistung sinnvoll zu nutzen.

 

Montag, 20.04.09: Aufgrund eines Ausfalls des DNS Systems bei Tiggerswelt war der Server heute einige Zeit nicht erreichbar.

 

Freitag, 17.04.09: Der Server von BTC - WC1 - ist jetzt endlich per LAN an das Internet und das Intranet von Bened Technology angeschlossen. Aufgrund der Umstellung kam es gestern zu einem kurzen Ausfall von WC1. Dieser dauerte ~10 Minuten. Auf die Internetdienste hat die Umstellung von W-LAN auf LAN kaum eine Auswirkung. Die Mitarbeiter von Bened Technology profitieren hingegen von der neuen 100 Mbit Verkabelung beim kopieren größerer Datenmengen und aufgrund der geringeren Störanfälligkeit. In der Zeit, in der der Server per W-LAN angebunden war, gab es trotzdem so gut wie keine Störungen. Der Ping zwischen Router und Server betrug ~ 1 ms, jetzt beträgt er <1 ms. Bened Technology verabschiedet sich also heute von der W-LAN Anbindung des Servers und des GPC1 und blickt dabei auf eine erfolgreiche W-LAN gestützte Zeit zurück! (Wenn ich etwas Werbung machen darf: Die verwendeten W-LAN Karten waren von Netgear...)