Meine „Reise zu Linux“

erstellt am: 04.01.2013 | von: admin | Kategorie(n): News

Ich bin 48 Jahre alt und beschäftige mich mein ganze Berufsleben lang, im Laufe der Studienzeit – mein Studium im Fach Informationsverarbeitung habe ich 1992 abgeschlossen – und „davor“ mit IT und Datenverarbeitung.

Erste Erfahrungen mit Apple II, ATARI XL und C64 in den Achtziger rückten im Laufe meines Studiums relativ früh Apples Macintosh ins Zentrum meiner damaligen Wünsche. Schon damals galten die sich im Zusammenhang mit IBM kompatiblen PCs stehendenTechnologien,  sowie die Betriebssysteme CPM und MS DOS  als rückständig und  so kam es in unserem Fachbereich schnell zu einer Art „Lagerbildung“. Die Pragmatiker, bzw. jene Kommilitonen, die stets ein Blick auf die sich in der Industrie abzeichnenden Entwicklungen hatten, kauften sich einen XT-kompatiblen PC-Nachbau, während ich seinerzeit der Fraktion, der technologiebegeisterten „Visionäre“ angehörte, die sich sowohl für das Macinstosh-Betriebssystem von Steve Jobs/Apple (mir seinerzeit revolutionärer grafischer Benutzeroberfläche), als auch für die damals ebenso neuen, den seinerzeit erhältlichen Intel-CPUs deutlich überlegenen 32Bit-Prozessoren von Motorola begeistern konnten.

Motorola 68000 (Quelle: cpu-world.com)

Mein ATARI und ich

Beide Aspekte, also der Wunsch ein modernes Betriebssystem erforschen und mitsamt für damalige Verhältnisse revolutionären Anwendungen nutzen zu können (das Textverarbeitungssystem „Signum“ oder das DTP-Programm „Calamus“ auf dem ATARI ST waren den damals erhältlichen PC-Programmen wie MS Word „Lichtjahre“ voraus, ebenso wie das später für meine Semester- und Diplom-Arbeiten eingesetzte LaTeX), sowie die Chance, eine moderne 32Bit-CPU sein Eigen nennen zu können, ließen sich damals mit dem Kauf eines ATARI ST-Modells auf ideale Weise verknüpfen, denn ein „Mac“ war damals unbezahlbar, kostete der doch in etwa so viel wie ein neuer Kleinwagen.

Mac SE (Quelle: www.apple-history.com)

ATARI 520ST (Quelle: oldcomputers.net)

Und der „ST“ hatte noch einen weiteren Vorteil: er bot nämlich auf Umwegen die Möglichkeit, meine Lust am Macintosh-Betriebssystem doch ausleben zu können, denn aufgrund der engen Hardware-Verwandtschaft zwischen Mac und ST (beide verwendeten die 68000?der CPUs von Motorola) gab es damals schon eine Reihe brauchbarer Hard- und Software-Emulatoren für den ATARI – für PC-Nutzer damals unvorstellbar – , sodass ich im Laufe meines Studiums neben TOS/GEM (Atari) auch MacOS-Erfahrungen sammeln konnte. 

Ich habe übrigens während der gesamten Dauer meines Studiums (1985 bis 1992) mehrere ST-Modelle besessen, also quasi den gesamten Produktlebenszyklus „mitgemacht“, vom ersten Modell im Homecomputer-Formfaktor mit eingebautem 768KB-Floppy-Laufwerk, über den „Mega ST“ – später auch mit externer Festplatte  –  (meine erste „Megafile 30“ bot damals sensationelle 30 MB Speicherplatz und kostete rund 2000 DM), bis hin zu späteren „Selbstbau-Lösungen“ mit „aufgemotzer“ Mega-ST-Platine (samt eigenhändig „gesockelter“ und hochgetakteter CPU) und nachgerüstetem SCSI-Festplattenadapter).

Prozessrechner, Mainframes, Mehrbenutzersysteme

Kurioserweise vollzogen sich die geschilderten Entwicklungen und Erfahrungen im Bezug auf das Studium seinerzeit in einer Art „Parallelwelt“, nämlich ausschließlich „zu hause“, bzw. in der Studenten-WG, im Computerclub (AUGE) oder beim Anfertigen von Haus- und Studienarbeiten, wobei es uns „ST-lern“ unter den Kommilitonen stets gelang, Professoren mit der handwerklichen und „gestalterischen“ Qualität unser Arbeiten zu verblüffen, woran neben Signum auch LaTeX seinen Anteil hatte. Die Hochschule selbst bot bedauerlicherweise eine aus „unserer“ Sicht rückständige Hardware-Ausstattung und einen nicht gerade zukunftsweisenden Lehrplan. Dass ich das Programmieren (seinerzeit Pascal und C im Pflichtfach) auf schon damals veralteten Prozessrechnern – immerhin durfte ich noch eine 8-Zoll-Diskettenlaufwerk im Waschmaschinen-Format in Aktion erleben –  und Mainframes lernen musste, während sich zumindest die einzelnen Institute für organisatorische Aufgaben in Eigenregie mit PC-Hardware versorgt hatten, ist rückblickend gar nicht so schlimm, wie ich es damals empfand, denn so hatte ich relativ früh Gelegenheit Erfahrungen mit Mehrbenutzer- und Echtzeitsystemen zu sammeln, damals in Form der Programmiersprache Pearl (nicht Perl).

Im Wahlfach und aus eigenem Antrieb beschäftigte ich mich damals bewusst mit den beiden „Extrem-Polen“ des ganzen Spektrums möglicher Abstraktionsebenen seinerzeit verfügbarer Programmiersprachen, nämlich mit 68K-Assember (Mikroprozessortechnik) und LISP/Smalltalk. Die beiden verwandten Hochsprachen LISP und Smalltalk interessierten mich besonders, weil sich abzeichnete, dass ich mich im Rahmen meiner Diplomarbeit mit den Themen KI, beziehungsweise „neuronale Netzen“ befassen wollte. Da ich zur Finanzierung meines Studiums an den Wochenenden und in den Semesterferien in diversen Computerläden und Computer-Abteilungen großer Kaufhäuser jobbte, blieben mir auch andere Entwicklungen nicht fremd, mit einem Commodore Amiga oder IBM PC konnte ich mich aber nie anfreunden, zumal ich in meinem gesamten Computerleben (und das ist auch heute noch so) – abgesehen vom Durchspielen sämtlicher Infocom- und Sierra-Adventures –  nie ein Gamer war, auch auf dem ST nicht.

KingsQuest IV (Quelle:www.history-corner.de)

Unix und ich

Als Glücksfall für meine heute Tätigkeit als Linux-Journalist und Linux-Consultant erwies sich, dass ich zur weiteren Finanzierung meines Studiums seinerzeit verschiedene Stellen als studentische Hilfskraft in der Hochschule innehatte, unter anderem „in der Rechenstelle des Fachbereichs Elektrotechnik“, an der sämtliche Studierenden im Grundstudium Ihre erste Erfahrungen mit dem Programmieren in C machen „durften“. Die Rechenstelle hatte seinerzeit gerade ein neues HP-UX-Mehrbenutzersystem angeschafft (HP 9000), das mit „Unix System-V“ ausgerüstet war und mit dem von DEC und IBM im Jahr 1987 entwickelten X11 sogar eine grafische Benutzeroberfläche besaß.

HP 9000 (Quelle:www.museum-nt.de)

Da uns „Informatikern“ die Bedeutung des „Universitäts-Betriebssystems“ Unix insbesondere im Zusammenhang mit der von Dennis Ritchie und Brian Kernighan entwickelten Programmiersprache schon damals nicht verborgen blieb – immerhin galt das Standardwerk „Programmieren in C“ der beiden Autoren schon Mitte der achtziger Jahre als „Bibel“ des Informatikers -, bot sich mir so eine willkommene Möglichkeit, mich (zumindest in der Hochschule) ausgiebig mit Unix zu befassen. Zugegebenermaßen ist meine heutige Begeisterung für Linux stark von dieser Zeit beeinflusst, als uns Unix als „das beste Betriebssystem“ schlechthin galt. Übrigens war die „Vernetzung von Personalcomputern“ damals noch absolut kein Thema, auch wenn ich mich im Rahmen einer Projektarbeit im Jahr 1990 erstmals mit TCP/IP befasste. Eine Verbindung, bzw. eine Übertragung der im Studium erworbenen Kenntnisse im Zusammenhang mit Unix auf den privaten/persönlichen Bereich gelang mir übrigens interessanterweise erst mit der Verfügbarkeit von Andrew S. Tanenbaums „Minix“ (das es auch in einer Version für den ATARI ST gab), sowie von Stallmans GNU-Tools (inkl. gcc) für das ATARI-System (TOS/GEM), sowie für den IBM-PC Ende der achtziger Jahre. Insofern hatten wir „ST?ler“ seinerzeit in Prinzip die gleichen Voraussetzung für „das Erfinden von Linux“, wie ein Linus Torvalds, der seine erste Linux-Version 1992 ins Netz stellte, dem Jahr, in dem ich die Hochschule als Diplom Ingenieur verließ.

Die graue Realität außerhalb der UNI

Das Verlassen der Hochschule im Jahr 1992 und der „drohende“ Eintritt in ein – aus damaliger Sicht eines angehenden Jung-Informatikers wenig spannenden Berufslebens – kam für mich einer Zäsur gleich, denn ich hatte mich im Studium aus den geschilderten Gründen weder mit mittlerer Datentechnik, noch kaufmännischer Programmierung (etwa Cobol) oder Datenbanken befasst. Wir Informatiker eigneten uns wenn überhaupt eher als Software-Architekten und konnten eher mit Lex&Yacc eigene Compiler bauen, als ein IBM-System administrieren oder ein Cobol-Programm schreiben.

Da ich auch nie wirklich als Programmierer tätig war – für das Anfertigen eine Diplomarbeit genügte es damals, sich leidlich mit C und Pascal auszukennen, inklusive der elementaren Standard-Algorithmen – gab es aus meiner Sicht im Jahre 1992 „draußen“ in der „Wirklichkeit“ kaum ein reizvolles Betätigungsfeld. Was aus heutiger Sicht unverständlich klingt lag schlicht daran, dass das Berufsbild „IT-Fachmann“, bzw. „Informatiker“ damals noch gar nicht klar umrissen war. Wollte man nicht als Programmierer („Datenknecht“) oder Systemadministrator „enden“, hätte man sich entweder zuvor im Praxissemester entsprechend orientieren müssen, das ich aufgrund einer vor dem Studium absolvierten Berufsausbildung übersprungen hatte oder sich selbst etwa einfallen lassen. Das Programmieren entsprach nie meinen inneren Neigungen und eine Tätigkeit als Administrator erforderte Praxiserfahrung für ein bestimmtes, möglichst weit verbreitetes System. Ich verfügte damals aber „nur“ über Unix-Kenntnisse (ATARI- oder Mac-Know-How zählte „draußen“ kaum), Unix war aber ein rein universitäres System. Gern hätte ich im Anschluss an mein FH-Diplom ein universitäres Diplom angeschlossen mit dem Fernziel einer Habilitation, vorrangig um einer der Hochschule bleiben zu können, konnte mir das aber damals schlicht nicht leisten. Aus heutiger Sicht „als Ironie der Geschichte“ ergab es sich dann, dass ich im Jahr 1993 eine Festanstellung als Systemadministrator in der „mittleren Datentechnik“ (IBM AS 400) fand, ein System, für das ich mich aufgrund meiner Persönlichkeit und meiner bis dato gemachten Erfahrungen kaum begeistern konnte, ebensowenig wie das Eingebunden sein in eine hierarchische Struktur. So fasste ich bereits im ersten Jahr meines Berufslebens den Entschluss, mich im IT-Bereich selbständig zu machen.

IBM AS400-System (Quelle:nicklitten.com)

IT-Trainer und PC-Networking

Die Jahre 1994 und 1995 nutze ich zur „Vorbereitung“ meiner künftigen Laufbahn als Freelancer, indem ich als Trainer für verschiedene private Bildungsträger in der Erwachsenenbildung EDV-Kurse gab und dabei die Gelegenheit wahrnahm, die jeweiligen Schulungsräume als Administrator zu betreuen. Im privaten Bereich war ich leider mit dem absehbaren Ende der ATARI-Ära gezwungen, auf einen IBM-kompatiblen PC umzusteigen. Angefangen habe ich mit einem 386?er mit „CoPro“, stieg aber schon bald auf einen 486?er um. Erste Erfahrungen mit Windows mache ich indes erst anhand der Version 3.0; zuvor nutze ich lediglich CPM und MS-DOS/PC-DOS, was ich als Rückschritt gegenüber der ATARI-Zeit empfand. Ich benötigte aber „gewöhnliche PC-, bzw. MS-DOS-Kenntnisse“, um mich mit meinem EDV-Kursen über Wasser zu halten. Aufgrund meiner langjährigen IT-Erfahrungen konnte ich mich zwar „etwas verspätet“ (gegenüber den PC-lern der ersten Stunde) sehr schnell in die Materie einarbeiten, richtig warm wurde ich mit MS-DOS und Windows aber nie. Mangels Alternativen in den Jahren 1993 bis 1996 führte an einem IBM-PC aber leider ein Weg vorbei. Zwar erwarb ich im Jahr 1993 eine OS/2-Warp-Lizens  – die PC-Handelskette ESCOM stattete damals übrigens als härtester VOBIS-Konkurrent seine PCs aufgrund eines breit aufgestellten Kooperationsvertrages mit IBM mit OS/2 aus — richtig durchgesetzt hat sich OS/2 aber leider nie, weil es schlicht an brauchbaren Anwendungen fehlte. Dabei war es seinerzeit ein zukunftsweisenden Betriebssystem.

OS/2Warp (Quelle: en.wikipedia.org)

Leider verpasste ich aufgrund der geschilderten Aktivitäten nach dem Studium die aus heutiger Sicht eines Linux-Fans sicher sehr spannenden allerersten Linux-Jahre 1992 bis 1994, denn in dieser Zeit befasste ich mich intensiv mit dem Thema PC-Vernetzung, das im Studium leider zu kurz gekommen war, bzw. seinerzeit erst in den Anfängen steckte. Immerhin bot mir die Auseinandersetzung mit „Arcnet“ und später „Ethernet“ anhand von Novell Netware in den Jahren 1993 bis 1995 einerseits eine neue intellektuelle Herausforderung im Zusammenhang mit IBM PCs (zumindest im Vergleich zum „Benutzen“ von MS DOS) und schuf anderseits auch die Basis für meine Tätigkeit als EDV-Dozent und Schulungsraum-Betreuer über schnöde MS-DOS und MS-Office-Kurse hinaus.

Novell Netware 3.2 (Quelle:novell.com)

Systemhaus und Schulungszentrum

In den Jahren 1996 bis 1999 vollzog ich dann den Schritt in die Selbständigkeit vollends und baute eine kleinen IT-Firma auf, die sich (wie es damals üblich war) vorrangig mit Handel mit von Hard- und Software, sowie IT-Serviceleistungen inklusive Netzwerktechnik befasste. Da der Handel mit Hard- und Software nie wirklich zu meinen eigentlichen Zielen gehörte, konzentrierte sich die Firma einerseits auf Netzwerktechnik, versorgte aber auch als einer der ersten Anbieter im Raum Nordhessen ortsansässige KMUs mit Internetanschlüssen und Web-Präsenzen, ergänzt um ein Trainingsangebot in eigenen Schulungsräumen. Leider zeichnete sich relativ bald ab, dass wir mit unseren Angebotsportfolio (vor Allem im Bereich Internet – und Netzwerktechnik) der Zeit damals – zumindest gemessen an der Nachfrage in unserer Region – weit voraus waren. In dieser Zeit war es mir auch vergönnt, damalige Visionäre des kommenden Internet-Zeitalters wie Rainer Schlund, Andreas Gauger (Schlund & Partner war einer der Mitbegründer der späteres 1&1 Internet AG) oder Dirk Hohndel und Roland Dyroff von SUSE persönlich kennenzulernen, heute allesamt weithin bekannte IT-Manager. Es zeichnete sich damals aber ebenfalls ab, dass mich die „unternehmerischen“ Anforderungen an einen KMU-Geschäftsführer mehr und mehr von meinen ureigenen Interessen und Idealen abbrachten. Als „kleinen Lichtblick“ im Trubel des Tagesgeschäftes empfand ich es damals, dass sich mir im Rahmen einer Kundenanfrage im Jahr 1995 die Gelegenheit bot, mich erneut mit einem alten Bekannten „Linux“ zu befassen, der offenbar in den zurückliegenden 2 Jahren enorme Fortschritte gemacht hatte.

Meine erstes Linux

Meine erste Distribution war damals die DLD (Deutsche Linux Distribution), die von der seinerzeit in Stuttgart von Jens Ziemann und Dirk Haaga gegründeten Delix GmbH produziert wurde und auf Patrick Volkerdings Skackware basierte. Delix wurde übrigens von den beiden DLD-Gründern  im Jahr 1999 an Red Hat verkauft. Dirk Haaga leitete die Red Hat Deutschland GmbH bis er im Jahr 2006 tödlich verunglückte als Geschäftsführer. Jens Ziemann ist übrigens heute noch „Direktor“ der „Red Hat Global Learning Services EMEA“ in Stuttgart, sowie Vorstandsmitglied bei der Open Source Business Alliance. Nach der DLD stieg ich allerdings beginnend mit der Version 4.4 auf SUSE Linux um, das damals ebenfalls auf Slackware basierte und erst mit der Version 5.0 im Jahr 1997 auf eine Red-Hat-Paketbasis wechselte. Der SUSE blieb ich dann bis zum Erscheinen von Debian 3.1 (Sarge) im Jahr 2005, bzw. Ubuntu 6.06 im Jahr 2006 treu. Der Grund bestand damals zugegebenermaßen darin, dass SUSE mit seinem Administrationswerkzeug YaST einen erheblichen Mehrwert bot, denn obwohl ich das erforderliche Know How zur manuellen Konfiguration eines Linux-System oder zum Übersetzen von Software und Treibern aus Quellen verfügte, bot SUSEs YaST doch seinerzeit einer spürbare (Arbeits-)Erleichterung. Zwar ist YaST auch heute noch Bestandteil von OpenSUSE, hat aber bei Weitem nicht mehr die Bedeutung, wie um die Jahrtausendwende. Spätestens seit dem Jahr 2005 überwogen für mich vor Allem die Vorteile eines Debian-basierten Paketmanagements, der Hauptgrund, mich ab 2005 auf zunächst Debian und später Ubuntu einzulassen.
Ubuntu war für mich aber stets nur „ein komfortableres Debian-System“ und ein GNOME-Desktop für mich damals wie heute ein Graus.

GNOME,  KDE und die Kommandozeile

Ich muss zugeben, dass ich bis heute KDE-Fan und Nutzer der ersten Stunde bin. Ich kann es auch bis heute nicht nachvollziehen, dass man von Linux-Experten wie mir, insbesondere dann, wenn Sie eine so abwechslungsreiche Reise durch die EDV-Geschichte hinter sich haben und von Anfang an dabei waren stets erwartet, dass Sie Kommandozeilen-Liebhaber sind und alles Grafische verteufeln. Ich kann und konnte mit der Konsole und der BASH umgehen – zur Not aus skripten – wenn es die Umstände erforderten, war aber immer dem Komfort und den phantastischen Möglichkeiten grafischer Oberflächen zugetan, dass zeigt schon meine Verwurzelung in TOS/GEM und Mac OS. KDE war für mich immer schon ein System, dass das zum jeweiligen Zeitpunkt technisch Machbare in Sache Usability, Anpassbarkeit und Eyecandy bot, während GOME 2 grau, langweilig und unflexibel daher kam. Ich finde bis heute, dass ein mit GNOME (2) betriebener Desktop-PC auf einen Linux-Neuling nicht gerade wie ein Aushängeschild für ein modernes, innovatives Betriebssystem wirkt. Ich spreche hier nur von der Oberfläche und den zugehörigen Bibliotheken und Abstraktions-Ebenen. KDE-Anwendungen dagegen waren schon immer überwiegend „besch …“ und sind es bis heute. Daher bevorzuge ich wie viele „vernünftige“ Linux-Nutzer ausgereifte GTK-Anwendungen wie Thunderbird, Firefox, Gimp oder LibreOffice. Aber das ist ja das Schöne an Linux, dass es unendliche viele Möglichkeiten und Freiheiten gibt, Dinge miteinander zu mischen oder zwischen mehreren Alternativen wählen zu können. Im Business-Bereich sehe ich das übrigens ganz anders und kann es absolut nachvollziehen, dass etwa Red Hat sein Enterprise Linux (RHEL) mit GNOME 2 ausliefert, denn im Unternehmen kommt es in erster Linie auf Stabilität und eine klar definierten Mindestfunktionalität an. Je weniger Funktionen und „veränderbare Parameter“ ein Unernehmens-Desktop bietet, um so einfacher lässt sich so ein System ausrollen und administrieren. Flexibilität ist hier eher unerwünscht. Übrigens bin ich erst im Laufe der Jahres 2011 zu RPM-basierten Distributionen zurück gekehrt, seit z.B. „Yum“ unter Red Hat inzwischen jene Nachteile aufhebt, die RPM-basierte Systeme früher gegenüber apt-Systemen aufwiesen. Warum ich heute Fedora-, bzw. Red-Hat-Systeme bevorzuge, erläutere ich in diesem Beitrag.

tipp8

KDE 3D-OpenGL-Desktop

Mein erstes Buch

Doch zurück auf den „Zeitstrahl“: die Jahre 1999/2000 stellten für mich die Initialzündung in Sachen „Linux“, bzw. „Geld verdienen mit Linux“ dar. Die Stellenausschreibung eines renommierten Computerbuch-Verlages, der Linux-Experten für ein Buch suchte, führte dazu, dass ich zunächst parallel zu meiner Geschäftsführertätigkeit ein zugegebenermaßen rechts triviales Linux-Einsteigerbuch für Red Hat- und SUSE-Linux verfasste, was aufgrund meiner vorhanden Unix- und Minix-Kenntnisse nicht nur durch schnell erledigt war, sondern meine Begeisterung für Unix und das freien Linux-Systems nun vollends entfachte, sondern auch offenbarte, dass ich offenbar über schriftstellerisches Talent verfügte. Wirklich überrascht hat mich das zwar nicht, weil ich in den Jahre 1985 bis 1990 bereits an diversen Uni-Zeitungen als Redakteur und Autor mitgearbeitet hatte und meine Diplomarbeit ursprünglich ebenfalls so angelegt war, dass sie als Sprungbrett für eine schriftstellerische Weiterverarbeitung hätte dienen können, erst das boomende Linux-Thema bot mir aber Anfang des neuen Jahrtausends endgültig die Möglichkeit, Hobby, Ausbildung und „Beruf“ in idealer Weise zu verbinden. Danach ging alles Schlag auf Schlag. Dem ersten Buch folgte ein Nächstes und wieder Eines und so weiter.

Startklar mit Linux

LINUX INTERN

Parallel begann ich in renommierten Computer-Zeitschriften zum Thema Linux zu veröffentlichten. CHIP & Co schlossen das Thema Linux seinerzeit erst zögerlich und so datiert etwa meine bis heute andauernde Zusammenarbeit mit dem Verlag „Linux New Media“ aus der Zeit, als der heutige Chef-Redakteur des Linux Magazins Jan Kleinert noch Fach-Redakteur bei CHIP war. Spätestens seit 2002 veröffentliche ich fast nur noch in Zeitschriften und beschränke mich auf wenige Buch-Projekte, denn das Schreiben von Artikeln bot und bietet interessantere Möglichkeiten, sich höchst aktuell immer wieder wechselnden Themen zuzuwenden. Einmal in der Branche Fuß gefasst bekam ich im Jahr 2003 die Möglichkeit, das quartalsweise erscheinende Linux-Sonderheft „LINUX INTERN“ des DATA Becker Verlages komplett zu „produzieren“. Anfangs lieferte ich vorrangig „nur“ den kompletten Content, übernahm aber nach und nach immer mehr redaktionelle Aufgaben, bis ich schließlich nur noch wenige Artikel selbst schrieb und mich für den größten Teil des Heftes der Mitarbeit von „Autoren“ bediente. In gleicher Weise lieferte ich zeitweise auch den kompletten Content des Linux-Sonderheft des WEKA-Verlages entweder selbst oder mit Hilfe meines Autoren-Teams. So wandelte sich mein Betätigungsfeld im Linux-Umfeld erneut von „Autor“ und „Journalisten“ zum Redakteur. In den Jahren 2004 bis 2010 vereinnahmte mich die redaktionelle Betreuung der LINUX INTERN inkl. Heft-CD/DVD-Produktion, Satz, Layout und Repräsentation des Verlages vollends, eine Erfahrung, die ich zwar nicht missen möchte, die mich aber von meiner eigentlich gerade erst neu entdeckten Berufung als Autor wieder ein stückweit entfernte, denn mich reizten ja weniger Verlagsinteressen, wie Verkaufspsychologie, Auflagenhöhe, Anzeigenvermarktung oder das Lektorieren von Autorenmaterial, sondern die inhaltliche Auseinandersetzung mit Linux, sowie ein gewisser Missionierungseifer beim Bekanntmachen von Linux und anderen Open-Source-Technologien.

linux04-09

Die LINUX INTERN

Freier Journalist,  Consultant und Trainer

Obwohl ich mich nie soweit vom jeweiligen Verlag vereinnahmen ließ, dass ich mich etwa hätte fest anstellen lassen, fand ich gerade in den Jahren 2004 bis 2010 nicht ausreichend Gelegenheit, den mittlerweile immer zahlreicherer geworden Linux-Strömungen, Open-Source-Technologien und Entwicklungen in der jeweils erforderlichen Tiefe zu folgen. Leider war es mir in dieser Zeit auch zeitlich nicht vergönnt, meine professionelle Trainer-Tätigkeit aufrecht zu erhalten, geschweige denn, mein über Jahre aufgebautes Linux-Know-How zu sichern, zu vertiefen oder gar qualifizieren, bzw. zertifizieren zu lassen. So gab ich die redaktionelle Verantwortung zunächst für das WEKA-Sonderheft „PC!Linux“ (das heute nicht mehr existiert) und schließlich im Jahr 2010 auch für die LINUX INTERN aus eigenem Entschluss ab, um mich wieder ganz meinen Aufgaben als freier Autor, Consultant und Trainer für die verschiedensten Magazine und Online-Portale widmen zu können. Heute schreibe ich zwar überwiegend für Linux New Media (jetzt Medialinx), bin aber selbstverständlich nach wie vor unabhängiger Journalist. Die prozentuale „Bevorzugung“ des Linux-New-Media-Verlages ist ausschließlich der überdurchschnittlichen „Bedeutung“ der verschiedenen Linux-Magazine (Linux Magazin, Linux User, ADMIN, Android User, Ubuntu User) des Münchener Verlages gemessen an anderen Publikationen geschuldet. Mein persönlicher Themenschwerpunkt hat sich allerdings etwa seit 2008/2009 gänzlich in den Server- und Business-Bereich (Server, Administration, Cloud-Management, Virtualisierung) verschoben. Die Themen „Linux zuhause“ der „Multimedia“ und „Spiele“ behandle ich persönlich gar nicht mehr. Ferner habe ich die vergangenen 3 Jahre dazu genutzt, lange überfällige Zertifizierungen nachzuholen (LPIC, RHCE), um in Zukunft auch meine Tätigkeit als Trainer reaktivieren und weiter ausbauen zu können. Ferner berate ich Kleine&Mittlere Unternehmen (KMUs) in „strategischen Fragen“ der Open-Source-Migration,  wobei ich aus meinen umfangreichen Kenntnissen des Marktes und der verfügbaren Open-Source-Produkte schöpfen kann. Im Einzelfall – stimmt „die Chemie“ zwischen mir, dem Unternehmen, dem einzusetzen Produkten und der Gesamtheit des Projektes – werde ich auch „exekutiv“ tätig.

Meine Distributionen

Ich habe oben erwähnt, dass meine Linux-Karriere im Jahr 1995 mit dem Einsatz von Delix/DLD, bzw. SUSE Linux 4.4 begann. Als Linux-Journalist und Consultant arbeite ich selbstverständlich heute nicht nur mit zahlreichen physische und virtuelle Servern- und Workstations, die mit wenigen Ausnahmen unter Linux laufen, sondern muss mich schon „von Berufs wegen“ permanent mit vielen verschiedenen Distribution befassen. Trotzdem gibt es auch bei mir Favoriten. Auf meinem persönlichen Arbeitsplatzsystem läuft seit 2012 mit Fedora (17) derzeit ein in Red Hat verwurzeltes System. Außerdem betreibe ich noch ein Notebook (MacBook Pro) mit Kubuntu 12.10. Darüber hinaus setze ich verschiedene Server-Systeme ein. Zwei davon sind physisch. Ein RHEL-kompatibles System (CentOS) nutze ich für Schulungszwecke und zum Testen, bzw. zum Vorbereiten von Red-Hat-Schulungen. Ferner betreibe ich einen Ubuntu-Server, um mich ganz konkret mit OpenStack befassen zu können. Alle übrigen Server sind virtuell und laufen auf der ge-clusterten, KVM-basierten Virtualisierungsplattform „Proxmox Virtual Envrioment“ mit zwei Knoten.

proxmox-vm-starten

Das System ist Debian-basiert und verwendet einen angepassten Red-Hat-Kernel. Konkret betreibe ich unter dieser Plattform einen Univention Coporate Server 3.1 (Debian basiert) mit Zarafa-Groupware, einen Debian-6-Server, einen Fedora-16-Server und einen Windows Server 2008. Den Univention Server nutze ich für mein Identify- und Infrastrukturmanagement mit OpenLDAP und Kerberos, als Groupware-Server und für mein Netzwerk-Monitoring (Nagios). Den Debian-6-Server verwende ich als Backup-Server (Bacula) und zum Betrieb von OwnCloud und OpenArchive. Der Fedora-Server dient ausschließlich zum Testen neuster Server-Technologien, wie oVirt und den Windows-Server benötige ich als „Gegenstück“ für Artikel über Samba, Active Directory, Exchange, bzw. Windows 7 oder 8, was gelegentlich vorkommt. Wer wissen möchte, warum ich diese oder jene Distribution bevorzuge, sollte den Beitrag „Distributionen“ lesen. Alle von mir eingesetzten Distributionen laufen in den jeweiligen 64-Bit (AMD64)-Varianten.

Ich und Hardware

Ich habe bisher kein Wort über „Hardware“ verloren. Dass liegt unter anderem daran, dass mich das Thema Hardware persönlich überhaupt nicht (mehr) interessiert. Das war zwar zu Zeiten meines Studiums anders, damals war es allerdings unabdingar, zu basteln, zu tunen und zu tricksen, um das Optimum aus der erhältlichen Hardware herauszuholen. Wie oben erwähnt konnte ich mir damals weder einen Mac noch einen IBM AT leisten. Später war „der Cube“ von Steve Jobs mit NextStep OS das Objekt der Begierde, aber ebenso „unerreichbar“, wie etwa eine Sun Workstation. Spätestens seit der Jahrtausendwende ist zudem aktuell verfügbare PC-Hardware (zum jeweiligen Zeitpunkt) stets für jeden im Heim- und Small-Office-Bereich vorstellbaren Einsatzzweck hinreichend leistungsfähig, sofern man seine Systeme großzügig mit Arbeitsspeicher ausstattet. Das gilt bei mir unter anderem auch deshalb, weil ich in meiner kleinen Firma Betrachtungen zum Thema Skalierung und Performance praktisch immer vernachlässigen kann. Ich nutze und  teste zwar auch anspruchsvolle Server-Technologien, allerdings gibt es in meinen Netzen meist nur wenige Nutzer und Mailboxen, sowie relativ „wenig Traffic“, weil ich keinen Datenbanken betreibe, wenn man mal von den MySQL-Fundamenten verschiedener Groupware- und CRM-Systeme absieht (meist MySQL). Ich betreibe auch keinen Media-Server. Hardware-Empfehlungen kann und möchte ich daher nicht geben. Spätestens seit 2005 muss man zudem auch in Sachen Linux-Treiber nur noch relativ wenig beachten. Ich habe jedenfalls seit dieser Zeit keinen Rechner mehr gezielt nach dem Faktor Linux-Kompatibilität ausgesucht, sieht man mal von der Grafikkarte ab. Hier achte ich beim Arbeitsplatzsystem stets darauf, eine separate nVidia-Karte der jeweils „letzten“ Generation zu verwenden (aus Kostengründen), auch wenn ich von dieser Firma und ihrem „Verhalten“ in Bezug auf die Linux-Community genauso wenig halte, wie wohl die meisten unter uns. Ich achte seit ich es mir erlauben kann lediglich darauf, keine „NoName“-Blechbüchsen  mehr zu kaufen. Marken-Hardware ist nur unwesentlich teurerer, bietet aber viele Vorteile in den Bereichen „Verarbeitung“, „EMV, sowie „Energieverbrauch“ und ist meist deutlich leiser. Gute Erfahrungen habe ich mit Lenovo- und Acer (Veritron)-Systemen gemacht. Inzwischen besitze ich auch zwei Macs (Mac Mini und MacBook Pro). Das einztige „Objekt der Begierde“ hat aber seit Langem seinen Kult-Status verloren. Ich nutze die Mac-Systeme nur deshalb, weil Sie unvergleichlich viel „geiler“ aussehen, innovative Ideen umsetzen und besser verarbeitet sind, als das Gros der PC-Hardware. Als Betriebssystem nutzen ich wie erwähnt auf beiden Macs Kubuntu. Von Apples Geschäftspraktiken und elitärer Philosophie halte nämlich bis heute nichts und konnte es übrigens bis dato erfolgreich vermeiden, einen iTunes-Account zu besitzen.

Thomas Drilling im Januar 2013

Guten Tag


mein Name ist "Drilling", Thomas Drilling. Ich bin seit 1995 als Freelancer (IT-Consultant, IT-Trainer, IT-Fach-Journalist/Redakteur/Buchautor) tätig. 

"Achtung: Diese Website wird seit 2016 nicht mehr gepflegt und ist nur aus Kompatibilitätsgründen noch bis 2021 am Netz. Aktualisiert wird nur noch der Bereich "Redaktionsbüro / Referenzen".  Aktuelle Informationen über mein Leistungsportfolio finden Sie unter www.drilling-it.de. Ferner betreibe ich die Blog-Seiten www.vmword.com und www.drilling-aws.de."

Doch egal, ob IT-Journalismus. Consulting oder Training, mit meinem über die Jahre aufgebauten Know How verstehe ich mich im Wesentlichen als moderner IT-Spezialist mit den Schwerpunkten Beratung und Training.

Da ich alle nennenswerten historischen IT-Entwicklungen vom Großrechner, über die mittlere Datentechnik (IBM AS/400), Unix (in der Pre-Linux-Ära), Homecomputer (Apple, Commodore, Atari), PCs, PC-Netzwerke, Novell Netware, Linux, Windows-NT, VMware ESX bis zu Amazon Web Services mit erlebt und gestaltet habe - was unter anderem meine Veröffentlichungs-Datenbank illustriert - kenne ich die Nöte, Sorgen, Pläne und Ziele vorrangig kleiner und mittlerer Unternehmen aus vielen Perspektiven.

Studiert habe ich den achtziger Jahren an der Gesamthochschule Kassel sowie der Fachhochschule Bielefeld und mein Diplom im Fach Elektrotechnik-Informationsverarbeitung im Sommer 1992 erworben. Seitdem kamen sukzessive die typischen Hersteller-Zertifizierungen hinzu, wie z. B. RHCSA, RHCE, VCP (VMware Certified Professional), VCAP VMware Certified Advanced Professional) oder AWS Certified Solutions Archtitect und AWS Certified Sysops Administrator hinzu.

Weiter ...