Beiträge von phrozen77

    Das Lappi ist vom November 2008, sollte also noch Garantie haben (nein, ich habe keine erweiterte Garantie zugekauft).

    Und ja, vom Lappi selbst kommt der Kokelgeruch.

    Ich denke auch das ichs heute über Nacht mal ausnahmsweise ausschalte und morgen mal Dell kontaktiere.

    Hallo,

    bei meinem XPS 1530 vom November 08 steigt / stieg gerade der typische "Elektrobrandgeruch" auf.

    Gibts da aktuell irgendwelche Warnmeldungen dazu oder hat jemand eine Idee was ich "auf die Schnelle" überprüfen könnte?

    Dell Support anrufen und um Austausch bitten?

    Bin da gerade etwas ratlos....

    Danke für die Erklärung - die Frage war wirklich aus "Unwissenheit" bzw. "Ignoranz" bezüglich des Verhaltens und Funktionsweise moderner / neuer Codecs heraus - und nicht als "Flamebait" gedacht. Mein Interesse an diesen Sachen hat, unter anderem aus massiven Zeitmangel für "alles", in den letzten Jahren stark nachgelassen - daher, vergib mir bitte meine Unwissenheit ;)

    Zum Thema analysieren: Wenn man denn wirklich möchte kann man alles analysieren, die Werkzeuge dafür sind vorhanden (strace / StraceNT, OllyDbg / gdb). Ob man dass dann wirklich interpretieren und verstehen kann, ist dann wieder eine andere Sache.

    Zitat


    Zitat:
    Original von phrozen77
    Warum das jetzt (ich nehm mal an dasses nen "guten" Grund für diese Verhalten gibt) - ausser vermutlich ner Menge an Overhead - wirklich schlecht ist, fehlt mir dann trotzdem.

    In dem Thread geht's um resourcenschonenden Player, oder? Egal. VLC tut das was es tut, damit es plattformunabhänig ist.

    Gibt aber wesentlich bessere plattformunabhänige player: mplayer beispielsweise. Der hat unter Windows dann auch noch ein OpenGL Backend.

    In der Tat - trotzdem haben mich die genauen Gründe warum VLC schlecht ist interessiert.

    Auch beweist dieser Thread / dieses Problem mal wieder dass jedes Tool sein Einsatzgebiet hat und es die "EierlegendeWollMilchSau" nicht gibt.

    So, jetzt schluss mit Offtopic ;)

    Wie man da, wie du sagst, "mehr kaputt als wieder gut" machen könnte ist mir, etwas Löt-Erfahrung vorausgesetzt, schleierhaft.

    Ich bin weder Elektroniker noch würde ich mich als Profi in der Materie bezeichnen, habe aber schon diverse Konsolen selbst ge-chip-ed.

    Unter anderem eine Wii inklusive selbstgebasteltem / selbstgeflashtem ModChip (Hardware basierend auf Chiip, jetzt mit OpenWii Firmware in Verbindung mit einem D2B Laufwerkschipsatz).

    Ohne den Netzwerkchip(satz) wirklich zu kennen oder gesehen zu haben, gehe ich von einem Chip in etwa der Grösse eines Daumennagels, mit der entsprechend (vergleichsweise grossen) Anzahl an Pins aus.

    Natürlich sollte man sich für so ein vorhaben entsprechend Zeit nehmen, sorgfältig planen, arbeiten und natürlich auch geeignetes Equipment haben.

    Das ganze gepaart mit etwas Bastelwillen und Erfahrungsdurst und schon kann (fast ;) ) nix mehr schiefgehen - und wenn doch... naja - so oder so ist man um eine Erfahrung reicher :)

    Hier hats ebenfalls nur Linux aufm M1530.

    Vista ging nach 20 Minuten den Weg von "Gesehen, gelacht, gelöscht" und wurde durch ein normales Ubuntu 8.10 Intrepid Ibex ersetzt (keins speziell von Dell).

    Das "Touchpad Problem" ist (war?) zu dem Zeitpunkt (Nov. 08 ) noch aktuell, zumindest mit dem BIOS im Auslieferzustand - ich kann dir jetzt aber nicht vom Stand weg sagen welche Version dass nu genau ist (ich bin grad zu faul extra neu zu booten :) ).

    Der - relativ einfache - Fix fürs Touchpad Problem ist i8042.nomux=1 an die "kernel" Zeile in /boot/grub/menu.lst anzuhängen, danach klappts auch mitm Touchpad :)

    Die generelle Hardware-Unterstützung ist schon arg gut, es gibt nur wirklich wenige Sachen bei denen man manuell "Frickeln" muss - und selbst das sind Sachen die man ohne wirklich tiefschürfende Kenntnisse im Nachhinein zum Laufen kriegt (z.B. Fingerscanner-Unterstützung per IBMs (?) thinkfinger).

    Die eingebaute Webcam funktioniert auch ohne Gebastel z.B. in Skype (/dev/video0), der Chipkartenleser sowieso, sogar die "Mediakeys" funktionieren in Gnome-nativen Programmen.

    Was leider (?) nur teilweise funktioniert ist die mitgelieferte Fernbedienung - die betrachte ich allerdings als Gadget und interessiert mich somit eigentlich weniger.

    So Sachen wie LAN und WLAN sind mit modernen, fertigen, Distri-Kernels ja eh kein (grosses) Problem mehr und eigentlich keiner Erwähnung wert. Firewire hab ich mangels Verwendungszweck noch nicht testen können - HDMI funktioniert nach etwas Konfiguration mit NVIDIAs Binary-Blob Drivern problemlos.

    Zusammenfassung: Linux wird immer Desktop- und Massenmarkttauglicher, jemand der sich nicht davor scheut etwas Zeit darin zu investieren um den "Linux way of things" kennenzulernen und allgemein offen für neues ist, sollte mal einen Blick drauf werfen - welche Distribution das dann ist, ist eigentlich schon fast Geschmackssache (oder, wie so vieles in der F/OSS Welt, Glaubenssache? ;) ).

    Angenommen ich wäre betroffen, die Garantie / Servicevertrag ist sowieso ausgelaufen und ich würde den passenden Netzwerkchip irgendwie organisieren können (und vorher eindeutig festgestellt haben dass es wirklich an diesem liegt / dieser kaputt ist):

    Ich würde zum Schraubendreher & Lötkolben greifen.

    Hmm - warum genau jetzt VLC "bad" und "evil" ist steht da jetzt aber auch nicht.

    Kann ja gut sein dasses dafür Gründe gibt aber eine Begründung fehlt mir da irgendwie.

    Edit: Na gut, da steht dass er "internal Files for Playback" nutzt was, wenn ich das jetzt richtig interpretiere, bedeutet dass er nicht wirklich die Dateien abspielt die ich angebe sondern die intern irgendwie umwandelt und das umgewandelte dann abspielt.

    Warum das jetzt (ich nehm mal an dasses nen "guten" Grund für diese Verhalten gibt) - ausser vermutlich ner Menge an Overhead - wirklich schlecht ist, fehlt mir dann trotzdem.

    Ausserdem erwähnt die Seite dasses "many Reasons" gibt - gibt dann aber genau einen an - hilft mir dann nicht wirklich weiter das ganze Ernst zu nehmen.

    Daumenregel: ein vernünftiger Kühler kostet Geld.

    Mit einem Teil aus der 10€ Grabbelkiste wirst du nicht glücklich werden und kannsts im Prinzip auch so lassen wie's ist.

    Ich nehm immer wieder gern was von Zalman, mit ordentlich Kupfer und da wirste dann so um die 50€ auf den Tresen legen müssen.

    Kuck einfach in diversen Shops spez. für Overclocker, da sollte sich was passendes finden lassen.

    Zitat

    Original von Tarantyno

    Eds Kommentar ist damit ebenso überflüssig wie unfreundlich! Zumal hier jeder zweite auf Kriegsfuß mit Interpunktion und Großschreibung zu stehen scheint.

    Zustimmung was überflüssig etc. angeht

    Zumal man auch bedenken sollte dass es immer noch so Krankheiten wie Legasthenie und Konsorten gibt.

    Und: derjenige der immer zu 100% richtig schreibt darf den ersten Stein werfen :)

    Meine persönliche Erfahrung zu diesem Thema ist folgende:

    2003 hab ich mir ein Acer (da, ich habs gesagt - dass A-Wort :( ) 3000WLMi gekauft und diesen bis November letztes Jahr im täglichen Dauerbetrieb gehabt - dann wurde es durch ein M1530 ersetzt.

    Zum Anfang hielt der Akku - unter Linux, Windows findet hier nicht statt - gut 3.5 bis 4 Stunden (genauer ist jetzt schwer zu sagen, wirkliche Aufzeichnungen dazu hab ich nicht gemacht), natürlich immer je nachdem was damit gemacht wurde, WLAN Killswitch an/aus, HDD geparkt ja/nein, CPU runtergetaktet ja/nein usw. usf.

    Mein Nutzungsprofil war und ist so dass ich die Kiste grob geschätzt einmal die Woche boote und von da an läuft das Lappie im Dauerbetrieb rund um die Uhr am Netz mit Akku drin - wenn dann mal nen Standortwechsel ansteht -> runterfahren (komplett) und dann anderenorts wieder an den Strom und das ganze von vorne.

    Im wirklichen Akkubetrieb lief und läuft mein Laptop eigentlich so gut wie nie - da würde ich so ca einmal im Vierteljahr ansetzen, dann aber auch so lange bis der Akku leergelutscht ist.

    Nach 5 Jahren die übern Daumen gepeilt im beschriebenen Schema abgelaufen sind hatte der (Lithium-Ionen-) Akku immerhin noch eine Laufzeit von ca. 2 Stunden - mit WLAN, mit moderater Festplattennutzung und die eingebaute 9600 Mobility GraKa wurde dank Compiz und Konsorten gelegentlich auch etwas gefordert.

    Mein Fazit daraus ist:

    Für *mich* persönlich lohnt sich eine derartige "Akkupflege" - wenn man wirklich mal davon ausgeht dass man damit nicht mehr kaputt als gut macht - überhaupt nicht.

    Wenn ich jetzt wirklich mit der "kurzen" Laufzeit von 2 Stunden gar nicht mehr klarkommen würde, kann ich mir nach dieser Zeit auch gut und gerne mal einen neuen Akku gönnen - das Ding hat sich schon X-mal abgezahlt ;)

    Was ich jetzt noch nicht ganz verstanden habe (oder: mir unverständlich ist):

    Du warst von Beginn an unzufrieden. Warum auch immer. Warum hast du nicht innerhalb der gesetzlichen, vermutlich auch in der Schweiz vorhandenen, Frist das Gerät zurückgegeben, gewandelt, was auch immer?

    Um mal wieder einen total hinkenden Vergleich zum Auto zu ziehen:

    Wenn ich mir ein Auto kaufe das "vom Band weg" nur Probleme macht, knarzt und quietscht, ich es jede Woche einmal in der Werkstatt habe und ich mittlerweile mit der Frau des Werkstattmeisters schlafe und ich generell keinerlei Aussicht auf eine Besserung habe, bringe ich die Karre wieder dahin wo sie herkam.

    Ohne viel drüber nachzudenken - warum sollte ich das bei nem Laptop anders machen?

    Zum Thema 3dMark:

    Dir ist schon klar dass das ein "synthetischer" Benchmark ist (oder zumindest war, als ich mir den Blödsinn zum letzten Mal angesehen habe) der eigentlich net soooo wirklich viel Aussagekraft hat.

    Soll heissen: die Realität sieht anders aus - ich würde einfach sehen wie sich die Frameraten etc. in-game verhalten.

    Auch wissen sollte man zu dem Thema - ebenfalls schon Jahre her - dass der Hersteller (Programmierteam?) von 3dMark den Benchmark zugunsten eines der beiden GraKa Hersteller (wars ATI? NVidia?) manipuliert hatte - Google weiss bestimmt was dazu, wenns wen interessiert.

    Soviel zum Thema "Glaube keiner Statistik die du nicht selbst gefälscht hast" :)

    Runtertakten: laut deinen geposteten Daten hat(te) deine CPU zu diesem Zeitpunkt (welcher war das im übrigen? Wie lange lief die Kiste da schon? Was lief da? Auslastung?) gut 65°C - das ist so kurz vor knapp vor dem Bereich wo eine Intel CPU runtertaktet - und dass müssten, wenn mich mein Gedächtniss gerade nicht im Stich lässt, so ca. 70°C sein.

    "Gern genommen" im Zusammenhang mit Hitzeproblemen im Bereich der CPU sind diese gaaaanz tollen Wärmeleitpads die sich (aber erst nach einer gewissen Zeit) auflösen - warum auch immer die, ausser dass sich das vermutlich ganz toll automatisiert einbauen lässt, überhaupt verwendet werden ist mir schleierhaft (obs die jetzt bei Dell auch gibt - kA). Desweiteren findet man - wie schon erwähnt - auch mal "halbe Katzen" und sonstiges Fusselzeugs in den Rippen der Kühlkörper.

    Der Rest deiner Komponenten scheint auch nicht gerade zu frieren daher könnts schon gut sein dass sich da irgendeine "Absicherung" eingeschaltet hat um ein abbrennen gerade noch zu verhindern.


    Aber - und geht man wirklich von einem einzigen zusammenhängenden Problem aus - halte ich das in deinem Fall für unwahrscheinlich da du die Probleme ja schon "nach dem Auspacken" hattest.

    Bin mal gespannt was der Techniker findet - wenn er denn was findet :)

    Zitat

    Original von hwaescher

    Danke dass du das mal so detailliert aufgegriffen hast :) [....]

    Im Großen und Ganzen kann ich mich dem wie schon gesagt komplett anschließen und rate jedem der mit mangelnder Hardware zu kämpfen hat mal abseits der EierlegendenWollMilchSau Apache zu schauen. Es lohnt sich sehr! :)

    Gerne :)

    Zumindest *mir* ging es weniger um mangelnde Hardware - meine Überlegungen waren folgende:

    Warum sollte ich die vorhandene Hardware derart "verschwenden"? Warum sollte ich mich selbst, durch die Wahl meiner Software, derart einschränken? Warum sollte ichs einfach so lassen wie's ist?

    Klar - funktioniert, und eigentlich auch gut funktioniert, hats vorher auch - blieb eben der schale Nachgeschmack nicht das "maximal Mögliche" rauszuholen.

    Und dann hab ich angefangen mich nach Alternativen umzusehen und die dann eben zu evaluieren - das Resultat von diesem Denkprozess und meinen Nachforschungen kann man hier im Thread nachlesen.

    EierlegendeWollMilchSau: Um bei NGINX zu bleiben - im Prinzip kann man mit diesem so ziemlich alles machen was man mit Apache auch kann - unter anderem siehe hier.

    Was *mir* persönlich fehlt ist ein mod_security Equivalent - wenn da irgendwer einen Tip hat, her damit.

    Und: wer nach dem Lesen dieser Seite nicht sabbernd vorm Rechner sitzt... ja, der.... ....darf weiter den Indianer nutzen ;)

    Es lohnt sich sehr: Allerdings, jede Minute die ich da bis jetzt investiert habe - und das waren ein paar bis alles inkl. PHP so lief wie's sollte - war gut verbracht.

    Auch auf der Suche bin ich noch nach einer auf irgendeine Art und Weise zu automatisierende Lösung um Apaches .htaccess Dateien zu konvertieren und diese (je automatisierter umso besser) mit in die Konfiguration des entsprechenden vHosts einzubinden - auch hier sind Tips sehr willkommen :)

    Gute Arbeit würd ich meinen :)

    Im allgemeinen lässt sich aber noch anmerken - wie auch schon jemand vor mir gesagt hat - ein "schlanker" Webserver kann *noch* mal einen riesen Unterschied machen.

    Ich hätts selber nicht geglaubt aber als ich meinen Apache in Rente geschickt und durch NGINX ersetzt habe.. - wow.

    Im Prinzip ist es so - es läuft zwar *jetzt* sehr schnell - nur sollte man gleichzeitig mit einberechnen wieviele Leute sich ständig gleichzeitig auf der Seite befinden.

    Diese machen dann dementsprechend "Last". Und dies auf: httpd (Apache), SQL-Server (MySQL wenn ich das richtig gelesen hab) und schlussendlich PHP (hier per mod_fcgi oder mod_fastcgi?).

    Diese Kombination an sich ist schon sehr performant - nur - was passiert bei einem Slashdotting? Oder, wenn aus irgendeinem anderen Grund, plötzlich viele "aktive" Benutzer gleichzeitig auf der Seite sind?

    Richtig - dann passiert das was allgemeinhin als "Slashdot Effect" bekannt ist - die Seite wird langsam da alle mitwirkenden Komponenten plötzlich - weit über "normal" - ausgelastet sind und nicht darauf optimiert / eingestellt sind (kann man so ohne weiteres auch nicht unter Realbedingungen testen, leider).

    Hilfreich für (gegen?) so eine Situation sind - wie ebenfalls schon erwähnt - in der momentanen Konstellation noch ein PHP Opcode Cache wie XCache, EAccellerator, APC (Empfehlung IMO in dieser Reihenfolge).

    Kommen wir zum Punkt dieses Beitrags :) (endlich? *gg*)

    Leider ist Apache nicht "dass Mass aller Dinge" was performance angeht.

    Man kann zwar wirklich vieles optimieren - trotzdem bleibt der Fakt dass Apache, im Vergleich zu anderen Webservern, sehr schlecht skaliert. Wenn man horizontal skalieren möchte und kann ist das schick und toll und auch möglich. Beim vertikalen skalieren siehts da schon schlechter aus - in diesem Fall kann man nicht einfach nur "mehr Hardware auf das Problem werfen" und ist fertig damit (kann man strenggenommen schon bis zu einem gewissen Punkt, bleibt die Frage ob man das _wirklich_ will und kann - Geldfrage...).

    Willkommen bei "leichten" Webservern.

    Major Players: NGINX, lighttpd, Litespeed (noch mehr: hier )

    Litespeed ist toll wenn man einen "Apache drop-in" Ersatz sucht - unterstützt komplett den "Apache way of things" - Konfigurationen, Rewrite-Regeln etc. können 1 zu 1 übernommen werden - leider ist Litespeed aber ein kommerzielles Projekt das, sofern man nicht mit der kostenlos verfügbaren und im Funktionsumfang etwas eingeschränkten Version "zurechtkommt", somit leider aussen vor bleibt (bleiben muss).

    lighttpd im Gegensatz dazu ist ein quelloffenes Projekt. Leicht, schnell und wird - nur um mal ein paar Namen zu nennen - u.a. von YouTube und Wikipedia eingesetzt. Die Nachteile von "lighty" - abgesehen vom anderen Syntax für Rewrites und der sonstigen Konfiguration - sind Speicherlecks. Bei meinen Nachforschungen konnte man - ohne dass ich jetzt eigene Tests gemacht habe, aber die Berichte im Netz sind recht eindeutig - rauslesen dass das Projekt Probleme mit solchen hat. Abgesehen von scheinbar generell möglichen Abstürzen und Instabilität, vor allem im Zusammenspiel mit "spawn-fcgi" (dem Script dass sich drum kümmert das PHP mit User-Rechten bzw. überhaupt ausgeführt wird) - ein K.O. Kriterium für mich, ich möchte meinen HTTPd nicht jede Woche einmal neustarten, das Ding soll laufen und sonst nix.

    NGINX - ebenfalls quelloffen, von der Performance her vergleichbar mit oder sogar noch schneller als lighty. Hat ebenfalls das "Problem" dass der gesamte Konfigurationssyntax ein anderer ist als man ihn von Apache gewöhnt ist, jedoch IMO etwas einfacher und übersichtlicher als lighttpd - und als "Bonus" keinerlei Probleme mit Speicherlecks oder merkwürdigen Crashes. PHP als CGI kann man dann entweder mit spawn-fcgi vom lighttpd Projekt betreiben (mit all seinen Problemen) oder mit einem PHP-Patch der sich PHP-FPM nennt.

    Die beiden quelloffenen Projekte, NGINX und lighttpd, haben noch ein gemeinsames Problem das man beachten sollte: Es sind (noch) Nischenprodukte.

    Die Dokumentation ist im Gegensatz zum Apachen stellenweise noch etwas dürftig, nicht vorhanden oder manchmal noch nicht übersetzt (NGINX z.B. ist ein russisch-sprachiges Projekt).

    Im Klartext heisst das für den Systemadministrator das man bei Problemen oder bei der Suche nach Lösungsvorschlägen oft vor eine Wand läuft. Wenn man mit seinem Indianer ein Problem hat lässt sich das im Allgemeinen "durch 5 Minuten Googlen lösen" - bei den Ersatz-httpd's leider eher weniger.

    Zumindest der "schlanke Webserver meiner Wahl", NGINX, hat eine sehr aktive Community - bei Problemen deren Lösung man nicht im Wiki findet kann man sich an eine der Mailinglisten - oder den IRC channel auf freenode - wenden und bekommt im Regelfall innerhalb kürzester Zeit eine kompetente Antwort. Genauso verhält es sich mit PHP-FPM - ein Posting auf die Mailingliste wird manchmal sogar innerhalb von 15 Minuten zufriedenstellend beantwortet - u.a. vom Programmierer selbst.


    So, das war jetzt mein Senf zum Thema "leichte Webserver" - das oben ist im Prinzip das Ergebniss der Überlegungen und Nachforschungen die ich angestellt habe als ich die Entscheidung gefällt hatte, den Apache in Rente zu schicken.

    Im Nachhinein betrachtet wars zwar etwas Aufwand - aber jede investierte Minute hat sich gelohnt.

    Danke fürs lesen - vielleicht hilfts ja dem einen oder anderen der ebenfalls mit dem Gedanken spielt, den Indianer zu ersetzen. Falls ich in obigem Text irgendwelche groben (Denk)Fehler drinhaben sollte, würde ich mich über einen Kommentar freuen :)

    Weiterführende Links:

    http://wiki.codemongers.com/Main
    http://php-fpm.anight.org/

    http://www.lighttpd.net/

    http://www.litespeedtech.com/

    http://xcache.lighttpd.net/
    http://eaccelerator.net/
    http://pecl.php.net/package/APC

    Zitat

    Original von osnposn
    Und ich wollte deine Frage ja beantworten, aber hierfür wäre dann schon relevant gewesen dass es um Linux geht nech..

    [ ] Du hast gemerkt dass er im "Linux auf dem Notebook" Unterforum gepostet hat.


    Zur Frage:

    Eigentlich ganz einfach wenn man weiss wie :)

    In der Konsole:

    Code
    alsamixer -c 0

    Mit den Cursor-Tasten nach rechts rüber bis zu dem Kanal der mit "Surround" beschriftet ist, "m" drücken, mit "ESC" raus (speichert den Zustand automatisch).

    Dass wars :)

    Zitat

    Original von niggurath
    der default MTU is übrigens 1492. Vllt magste den Wert entsprechend anpassen um in Zukunft definitiv keine Probs mehr damit zu kriegen. ^^

    Hrm, da hast du wieder recht - ich war so glücklich dass der Mist endlich ging dass ich da dran nimmer gedacht habe.

    Bleibt die Frage wo ich den Kram reinpack ohne dass ich auf so gefrickel wie /etc/rc.local zurückgreifen muss.

    /etc/dhcp3/dhclient.conf?


    Edit: Eigentlich ne blöde Frage - lesen regelt mal wieder. Weiter unten im Launchpad Eintrag steht dass der "interface-mtu" Parameter in der /etc/dhcp3/dhclient.conf dafür verantwortlich ist dass uns der Router erzählen darf was für eine MTU verwendet wird - und diese erzählen scheinbar mal gerne Blödsinn, bei Problemen also probehalber entfernen.

    Ok, jetzt weiss ich worans lag....

    Beim Googlen nach "dhclient send_packet: Message too long" bin ich auf folgendenen Eintrag im Launchpad gestossen.

    Analog dazu hab ich in der shell dann die MTU von eth0 angepasst mit:

    Zitat


    ifconfig eth0 mtu 1500

    Und siehe da - dann ging auch die Anfrage an den DHCP per dhclient durch :D

    Hat denn keiner eine Idee?

    Gestern war ein Kollege mit einem Windows-Laptop hier und bei diesem ging das Netzwerk einwandfrei :(

    Ich hab heute noch ein paar Sachen durchprobiert aber mit wenig Erfolg.


    rmmod sky2 & modprobe sky2 schreibt folgendes ins syslog/dmesg:

    Soweit so gut, IRQ 16 mhh?

    cat /proc/interrupts

    Sollte da bei IRQ16 nicht das sky2 Modul mit dabeistehen?

    Nur so nebenbei bemerkt hatte ich schon bei einem Desktop-Rechner mal ein Problem als sich Netzwerkkarte und Grafikkarte einen IRQ teilen wollten - wie könnte man das umkonfigurieren?


    Dann mal nebenbei probiert ob sich das ganze nicht doch per dhclient überreden lässt:

    dhclient -r:

    dhclient eth0:

    Und jetzt bin ich eiiiiiigentlich wieder am Anfang und wüsste grad spontan nicht was ich sonst noch überprüfen / probieren könnte :(

    ifconfig:

    Nein, den Router von dem der DHCP ACK kommt, den kann ich nicht anpingen (10.0.0.3 in dem PCAP file)

    Hallo Forum,


    mit meinem ersten Posting hier komm ich gleich mit einem Problem um die Ecke - hab mich hier schon ein bisschen durchgelesen aber konnte nix vergleichbares finden, daher dieser Thread.


    Nachdem ich nach gut 5 Jahren mein Acer Extensa jetzt endgültig in Rente geschickt hab, gabs ein aktuelles M1530 und ich muss sagen dass ich recht begeistert davon bin - die erste Aktion war dass ich direkt das mitgelieferte Vista gekillt und Ubuntu Intrepid installiert hab :D

    Funktioniert soweit auch alles ganz toll, sogar "Gimmicks" wie der Fingerabdruckscanner funktionieren nach etwas Gefummel :)

    Einzig und allein die Kabelnetzwerkkarte macht Probleme und ich muss sagen dass ich recht ratlos bin und keine Ahnung habe wo ich ansetzen soll.

    Die Karte an sich scheint wunderbar erkannt zu werden - funktionieren will sie aber irgendwie nicht.

    lspci:

    Zitat

    09:00.0 Ethernet controller: Marvell Technology Group Ltd. 88E8040 PCI-E Fast Ethernet Controller (rev 12)

    lshw:


    Soweit, so gut - sobald ich ein Kabel anstecke versucht sich der networkmanager per DHCP eine Adresse zu holen und sagt - allerdings immer nur beim 1. Versuch nach einem Reboot - er wäre verbunden, aber jegliche Verbindungsversuche ins Internet oder auch LAN (ping etc.) schlagen fehl - Network unreachable. Weitere Versuche scheinen mit einem Timeout abgebrochen zu werden und auch Wireshark zeigt keinerlei Aktivität auf eth0 mehr an.

    Da ich das ganze zum ersten mal in einem Hotel - die schön öfter Probleme mit ihrem Internet hatten - bemerkt habe, hab ich das ganze als Problem mit deren Netzwerk abgehakt, erstmal auf später verschoben und bin stattdessen per UMTS ins Netz.

    Nachdem ich dann am Wochenende auch mal zuhause Zeit hatte das ganze auszuprobieren bin aber zu demselben Ergebniss gekommen - dasselbe LAN funktioniert problemlos mit einem anderen Laptop oder auch per WLAN auf diesem Laptop funktioniert das ganze einwandfrei - somit bin ich ein Stück weit ratlos :(

    Für sachdienliche Hinweise bin ich mehr als dankbar, wenn mehr / andere Angaben gewünscht sind werde ich die gern nachreichen (im Anhang noch ein Dump von Wireshark von besagtem ersten Verbindungsversuch).