Beiträge von TheOutrider

    Zitat

    Original von Stringgod
    - Frau Denton kann sowieso nicht soviel tragen
    (vielleicht WEIL sie eine Frau ist ?)


    ... dafür belegen aber auch "große" Waffen wie der Raketenwerfer oder die Sniper Rifle nur einen Slot im Inventory.


    Zitat

    - kleine Levelabschnitte (nerviges Nachladen)


    Indeed, die Levels waren teilweise vollkommen unnötig klein. Andererseits halten sich, zumindest bei mir, die Ladezeiten sehr in Grenzen (neuer Level ist normalerweise in <5s geladen). DX1 dagegen braucht bei mir bis heute locker ~30 Sekunden, um einen neuen Abschnitt aufzumachen.


    Zitat

    - zuviele Aufträge (Übersicht)


    Janaja, Geschmackssache. Wie oben bereits gesagt - DX2 ist kürzer, aber sehr viel breiter gefächert als der erste Teil. Anders, aber nett.


    Zitat

    - keine Stillpoints (ich glaub' so hiessen die doch, oder ?)


    Auch das ist eine Geschmackssache - das rollenspielartige Skillsystem, wie es im ersten Teil war, ist sehr reduziert und mit den Biomods verschmolzen worden. Vorteil: das Interface läßt sich weiter reduzieren. Nachteil: die Möglichkeiten, den Charakter nach seinen eigenen Wünschen zu gestalten, werden eingeschränkt.
    Ich persönlich mag das neue Interface; während das Interface von DX1 eben nach Spiel aussah (Menüs, viel Geklicke, usw) und mich mit seiner Umständlichkeit jedesmal aus der Immersion gerissen hat, ist das Interface von Invisible War extrem reduziert und fügt sich gut in die Spielumgebung ein. Wenn man sich erstmal dran gewöhnt hat, wird man das Interface selten länger als ein paar Sekunden offen haben müssen, um zu erreichen, was man will. Sehr gut für die Suspension of Disbelief... allgemein fand ich DX2 sehr viel immersiver als den ersten Teil. Ich habe regelmäßig teilweise über mehrere Missionen hinweg nicht nur vergessen, zu speichern, sondern vergessen, dass ich überhaupt speichern kann.

    Ich habe Deus Ex 2 inzwischen zum ersten Mal durch und muß im Großen und Ganzen sagen, dass es ein würdiger Nachfolger ist. Obwohl die Engine scheinbar noch etwas unzuverlässig ist (viele Leute beschweren sich über schlechte Performance oder ständige Abstürze; ich hatte lediglich Probleme mit dem Kopierschutz, der mich mein originales DX2 nicht spielen lassen wollte - scheinbar kommen die Performanceprobleme vor allem bei nVidia-Grafikkarten entweder vom "Bloom"-Effekt oder von den dynamischen Schatten, welche sich seit Version 1.1 abschalten lassen), läuft das Spiel auf meinem Rechner (Athlon XP2000, Radeon 9600Pro 128MB, 256MB DDR) in 800x600 einwandfrei.
    Es ist ein ganzes Stück kürzer als sein Vorgänger (ich habe zwei Sitzungen a jeweils 6 bis 8 Stunden für den ersten Durchlauf gebraucht); dafür hat man aber im Verlauf des Spiels sehr viel mehr Möglichkeiten, den Ablauf der Handlung zu verändern. Auch das Endspiel an sich wirkt deutlich weniger gehetzt als beim ersten Teil; während man bei DX1 quasi auf verschiedenen Pfaden immer der gleichen Handlung gefolgt ist und eigentlich erst ganz am Ende die "wichtigen" Entscheidungen gefällt hat, hat Invisible War eher eine allgemeine Timeline, die man in verschiedene Richtungen beeinflussen kann. Auch hier kann man sich, quasi kurzfristig, ganz am Ende entscheiden, aber die Endphase der Handlung ist ausgedehnter als im ersten Spiel und zieht sich über mehrere Locations und Missionen hin. Für mich ist schon jetzt abzusehen, dass ich dieses Spiel in absehbarer Zukunft noch wenigstens vier weitere Male durchspielen werde (für jedes Ende einmal plus einmal zum Erforschen der Umgebungen; wahrscheinlich aber noch öfter).
    Nun zum Streitpunkt Nummer 1: die Pixelshader. Der Grund, wieso viele Leute kein Deus Ex 2 spielen können oder wollen; insbesondere Leute, die sich vor nicht all zu langer Zeit eine GeForce 4MX gekauft haben, kommen sich hier scheinbar etwas veralbert vor. Ist aber nicht wirklich das Problem von Ion Storm, sondern eher das des schlicht und einfach irreführenden Marketings von nVidia - Pixelshader sind beileibe keine neue Technologie (zwei Jahre? Zweieinhalb?), und es war nun wirklich nur eine Frage der Zeit, bis die ersten Spiele auf den Markt kommen, die Pixelshader voraussetzen. Nebenbei sind Pixelshader-Grafikkarten inzwischen auch nicht mehr so teuer; laut evendi.de liegen die Einstiegspreise für GeForce3-class-Grafikkarten im Moment bei ca. 80 bis 100 Neuronen. Mit der angekündigten Einführung der neuen Generation von Radeon-Karten im Frühjahr 2004 dürften die Preise für die jetzigen midrange-Grafikkarten (Leistungsklasse Geforce3/4 bzw Radeon 9600/9700) bis zur EU-Release von Invisible War (oder auch Thief 3) weiter fallen.
    Für die dennoch saftigen Systemvoraussetzungen bekommt man aber auch durchaus einiges geboten; die Licht- und Schatteneffekte von Deus Ex 2 sind schlicht und einfach atemberaubend und dürften, zusammen mit den größtenteils hochdetaillierten Figuren, Invisible War zum momentan grafisch besten Spiel auf dem Markt machen. Der "Bloom"-Effekt täuscht außerdem noch eine leichte Tiefenunschärfe vor und tut irgendetwas mit der Beleuchtung - sieht edel aus, läßt aber die Texturen leider recht verwaschen wirken (wohl auch der Grund für die häufige Beschwerde, die Texturen von Invisible War wären minderqualitativ). Die Physikengine wirkt größtenteils ebenfalls sehr gut und ist für alberne Stunden ein hervorragendes Spielzeug. ;)
    Gerade für Thief 3 dürfte die neue Engine eine hervorragende Atmosphäre bringen; Ion Storm müssen nur noch die bestehenden Probleme ausbügeln und die KI etwas aufpolieren - davon abgesehen ist die Engine wie geschaffen für ein neues Thief.
    End of story: Deus Ex Invisible War ist meiner Meinung nach ein durchaus würdiger Nachfolger für den ersten Teil, bei dem die Verbesserungen die Verschlechterungen deutlich überwiegen, und macht Lust auf mehr und Hoffnung für Thief 3. :)


    [edit: Screenshotlinks entfernt, weil vom Webspace gelöscht]

    Zitat

    Original von UglyEd
    ich hoffe, die denken sich bei Ion Storm nicht ein neus Keymapping aus, ich hab' mich so an die T2 Tastenbelegung gewöhnt :)


    Öhm... dir ist aber schon bekannt, dass man sowas bei Nichtgefallen auch einfach umbelegen kann? :)

    Zitat

    Original von s. tschiesche
    ich sage da mal ganz spontan: gut das dass nicht bei kleidung so ist ! aber bei software ist das eben auch extrem uncool für die firmen wenn ein fan was kauft auf das er sich schon jahre gefreut hat und dann durch lauter bugs enttäuscht ist :(


    GO GO TRIBES 2
    Leider ist die Tendenz in der Softwareindustrie inzwischen so, ja. Liegt aber nicht nur an den Spielen selbst, sondern auch an der steigenden Komplexität der Software (gut, bei den meisten Spielen eher nicht - hurra für immer gleiche Arenashooter!); viel mehr noch an der steigenden Komplexität der Hardware. Es ist schlicht unmöglich, ein Spiel auf allen existierenden Hardwarekombinationen zu testen. Weiter erschwert wird das Ganze durch "Pfuscher-Software" (Spyware und die sich immer weiter verbreitenden Trojaner/Würmer) und Dinge wie der populäre Übertaktwahn, die die Stabilität eines Systems weiter beeinträchtigen können.
    Dazu kommt, dass viele Softwarehersteller sich inzwischen auch sehr auf die Modding-Community verlassen. Bestes Beispiel: Half-Life 2. Valve veröffentlichen das Mod-SDK für HL2 ca. ein Jahr vor der Veröffentlichung des Spiels. Kurz darauf melden sich die Leute von Sven Coop zu Wort und geben bekannt, dass sie SC auch für HL2 umsetzen werden. Valve denken sich "danke, dann müssen wir keinen Coop-Modus mehr einbauen."
    Auch die beliebten Arenashooter sind ein gutes Beispiel dafür, dass statt fertigen Spielen häufig eher Engine-Demos abgeliefert werden. Wozu noch eine vernünftige Handlung schreiben und einen Singleplayer-Modus programmieren, wenn sich das Spiel genauso verkauft, wenn's nur aus Deathmatch und CTF besteht? Man muß nur genug Geld in die Werbemaschine pumpen und fleißig gute Noten bei Spielezeitschriften kaufen, dann geht das alles schon.


    [/rant],


    Outie

    Auch wenn du auf einem 21"-Bildschirm arbeitest, merkst du einen Unterschied zwischen 640x480 und 1280x1024. Also, zumindest ich merk den Unterschied, selbst auf meinem 17"er. Gerade auf größeren Flächen wird der Unterschied noch krasser.
    Ich rechne dir mal was vor: mein 17"-Monitor hat eine Bildfläche von ca. 32.5x24.5 cm. Auf einer Auflösung von 640x480 heißt das, dass jedes Pixel eine Fläche von 0.5x0.5mm hat; auf 1024x768 sind's schon nur noch 0.3x0.3mm und auf 1280x960 0.25x0.25mm.
    Ein Gegner, der auf dem Bildschirm 3cm Höhe und 2cm Breite einnimmt, hat somit in 640x480 nur 6x4, also 24 Pixel, in 1280x960 12x8, also 96 Pixel. Die vierfache Anzahl. Gerade bei solchen Zahlen sieht man einen massiven Unterschied in der Detailstufe.
    Tu mal folgendes: nimm einen Screenshot von deinem Desktop. Skalier selbigen in der Bildbearbeitung deiner Wahl auf 160x120 Pixel. Nimm dir IrfanView und zeig das 160x120-Bild im Vollbildmodus an. Kein Unterschied, richtig? :P

    Zitat

    Original von Lhooth
    Mein Sys steht auf der ersten Seite dieses Threads. Meine GraKa ist die GeForce Ti 4200 128 MB und das Abschalten von "Bloom" bringt kein einziges Frame.


    Hmmm, okay... damit fällt die Theorie wohl weg. Bei 2 Bekannten von mir lag's daran...
    Nach dem, was ich in den letzten Tagen so erlebt habe, ist die Performance der DX2-Demo aber wohl ähnlich der von Tribes 2 - dh. sie hängt irgendwie von den Mondphasen auf Jupiter ab oder davon, wieviele Säcke Reis in China umfallen oder so... mal hoffen, dass ISA das bis zur Release ausgebügelt kriegen.
    Allgemein machte die Demo auf mich aber den Eindruck, als wär sie etwas überstürzt veröffentlicht worden; besonders die Tatsache, dass die Demo in der Standardinstallation keine Einstellungen speichert (weil die betreffenden Dateien sinnigerweise schreibgeschützt sind) und dass in der Tastenkonfiguration Sachen wie das zur-Seite-Lehnen nicht eingestellt werden können läßt mich vermuten, dass ISA mit der Demo nicht so fertig geworden sind, wie sie's gerne hätten.

    Zitat

    Original von s.tschiesche
    das einzige was bei einer höheren auflösung besser wird sind die bittiefen und die eigentlichen farben.


    Nein, vollkommen falsch. Eine höhere Auflösung bedeutet mehr Pixel auf gleicher Fläche - das heißt, eine höhere "erkennbare" Detailstufe. Kanten werden weniger deutlich erkennbar, die üblichen "Pixeltreppen" werden ganz allgemein etwas geringer. Dass die Framerate darunter leidet, ist klar, weil der Computer natürlich auch das Bild mit einer höheren Genauigkeit berechnen muß. Guckstu hier:
    [Blockierte Grafik: http://www.nefkom.net/g.piesche/temp/res1.png] [Blockierte Grafik: http://www.nefkom.net/g.piesche/temp/res2.png] [Blockierte Grafik: http://www.nefkom.net/g.piesche/temp/res3.png] [Blockierte Grafik: http://www.nefkom.net/g.piesche/temp/res4.png]
    Die Fläche wie auch der Inhalt ist bei allen vier Bildern gleich, aber die Auflösung verdoppelt sich mit jedem Schritt nach rechts (4x4, 8x8, 16x16, 32x32). Merkste was? :)



    Zitat

    Original von Kyloe
    Erklär mir doch mal an welchem Draht ich ziehen muss, damit die Demo ohne Pixelshader läuft. Ich will nicht einsehen, dass ein paar Reflexionen und Glitzereffekte so wichtig sind. Die Animationen, KI und Physikengine werden doch wohl von der CPU berechnet.


    Die Demo wie auch die Vollversion werden nicht ohne Pixelshader laufen, nachdem meines Wissens ein Gutteil der (wenn nicht sogar die gesamte) Level- und Figurenbeleuchtung auch damit gemacht wird.



    Zitat

    Original von Lhooth
    Hm, das kapier ich nicht. Selbst wenn ich alles auf low setze, hab ich bei 1024*768 kaum mal mehr als 20 fps.
    AA und AF und VSync sind aus. Warum hab ich so eine schlechte Perfomance?


    Systemspezifikationen bitte. Wenn du eine nvidia-basierende Grafikkarte hast, schalte mal in den Grafikoptionen "Bloom" aus. Das Teil täuscht ein bissl Antialiasing vor und macht einen leichten Tiefenunschärfe-Effekt; bringt aber scheinbar Geforce-Karten massiv ins Schwitzen. Jemand von TTLG.com vermutete, dass Bloom eventuell ein DirectX 9-Effekt ist, der auf DirectX 8-Karten (bei nVidia sind das alle außer der FX-Reihe) nicht hardwarebeschleunigt gemacht werden kann und somit MASSIVST Performance schlucken würde.



    Zitat

    Original von christine
    Und was für mich daran am schlimmsten ist: mit jedem Aufrüsten geht irgendeines meiner alten Spiele nicht mehr, und gerade die, die ich gerne nochmal spielen würde...


    DAS ist allerdings seltsam und sollte nicht passieren... der einzige Schritt, den Windows in letzter Zeit gemacht hat, der zu Kompatibilitätsproblemen geführt hat, war das Abschaffen der DOS-basierten 9xer-Serie und der Umstieg auf NT-basierende Systeme - selbiges hat dazu geführt, dass manche alte DOS-basierende Programme (v.a. Spiele) nicht mehr funktionieren. Im Zweifelsfall kann dir evtl Tips dazu geben, ob und wie du auf NT-Systemen (WinNT 4, Windows 2000 und Windows XP) ältere Spiele zum Laufen kriegst.


    Zitat

    Um das gute alte Freespace zu spielen, muß ich an den Comp der Kinder, das ist mein alter PIII mit 450 MHZ, da läuft das prima...


    Höchst seltsam, hier (WinXP SP1, Athlon XP2000, ATi Radeon) laufen FS1 wie auch FS2 ohne Mucken... gib mal deine Rechnerspezifikationen durch, evtl kann ich dir da weiterhelfen :)


    Zitat

    Edit: steht da was bei der Demo dabei, daß die Texturen im Spiel besser sind? Aber dann müßten für die Demo doch die Anforderungen geringer sein, als beim Spiel


    Nein, und nicht wirklich. Höher auflösende (= detailliertere) Texturen machen von den Systemanforderungen her relativ wenig aus, nur vom Arbeits- und Festplattenspeicherverbrauch her. Nachdem aber auch mit ziemlicher Wahrscheinlichkeit nie -alle- Texturen gleichzeitig in den Arbeitsspeicher geschaufelt werden, dürfte der Unterschied im RAM-Verbrauch auch marginal ausfallen.
    Problematisch werden hochauflösende Texturen nur, wenn sie so groß werden, dass es mit dem Speicher auf der Grafikkarte eng wird; seit der Erfindung von AGP-Grafikkarten ist das aber auch kein so massives Problem mehr und bringt nur noch einen leichten Performanceverlust mit sich.
    Ich würde aber sehr davon ausgehen, dass die Texturen im endgültigen Spiel eine bessere Qualität haben; ich hab mal ein bissl in meinem DX2Demo-Verzeichnis rumgestöbert und festgestellt, dass ca. die Hälfte der Installation für den Sound draufgeht (knapp 132MB); nochmal ca. 40MB werden für die Filme verbraucht (der größte Teil davon für die Logos am Anfang, den Thief3-Trailer und das "Werbevideo" für die DX2-Vollversion am Ende der Demo). Damit sind wir bei 170 von 270MB. Nochmal 70MB stecken im Verzeichnis "Maps"... 240 von 270MB, da bleibt nicht mehr viel für die eigentliche Engine und die Texturen...



    Ciao,


    Outie

    Christine: Spielekonsolen sind sehr viel mehr auf den Spielbetrieb getuned, als PCs es jemals sein werden. PCs sind Universalrechner, die alles können müssen - eben selbiges führt aber dazu, dass sie, verglichen mit spezialisierten Systemen, in den einzelnen Bereichen stinkelangsam sind. Ein netter Artikel zu dem Thema; ein Vergleich der Architektur von PC und Playstation 2, findet sich auf Ars Technica (Englisch).
    [edit]
    Bevor jetzt wieder die Stimmen kommen werden "aber die xbox ist doch auch nur PC-Hardware" - nein, ist sie nicht. Die Hardware der Xbox BASIERT auf PC-Hardware, ist aber auch schon reichlich stärker auf Spielbetrieb getuned; außerdem ist die Systemarchitektur auf niedrigem Level im Vergleich zum PC deutlich verändert, ebenfalls mit diversen Optimierungen zum reinen Spiel- und Multimediabetrieb.
    [/edit]


    [edit v2]
    Anderes Beispiel: guckt euch die Rechenleistung der Rechner in zB. einem Space Shuttle oder einem heutigen Auto an - verglichen mit der reinen Taktfrequenz etc. eines üblichen Heim-PCs ist das lächerlich, aber dank ausreichendem Tuning auf die Aufgaben vollkommen ausreichend.
    Wie ein Bekannter von mir mal sagte - "Es hat die Rechenleistung von drei Commodore 64 gebraucht, um auf den Mond zu fliegen. Um Windows 98 zum Laufen zu bringen, braucht man mindestens einen Pentium75 mit 32MB Arbeitsspeicher. Irgendwas ist hier verkehrt, und ich glaube nicht, dass es die Apollo ist."
    [/edit v2]


    Die DX2-Demo läuft bei mir übrigens einwandfrei; ich habe einen Athlon XP2000, 256MB RAM (PC133 SDR, wohlgemerkt) und eine Radeon 9600 Pro. 1024x768 mit sämtlichen Grafikoptionen auf Maximum ist astrein spielbar (konstant >30fps).
    Was die Sache mit den Texturen angeht - Texturen fressen MASSIV Speicherplatz, und die Demo ist jetzt mit 250MB schon nicht gerade klein geraten. Wäre euch eine 800MB-Demo mit hochauflösenden Texturen lieber gewesen? :P


    Ich mag die Demo, und wenn Deus Ex 2 nur annähernd die Spieltiefe und Variationsmöglichkeit des ersten Teils erreicht, werd ich die Vorbestellung nicht bereuen. Und meine guten Hoffnungen für Thief 3 bleiben bestehen. :)

    Zitat

    Original von Raven
    Ich weiß nicht ob das ein Fehler war. Aber als ich von der Freiheitsstatue zum HQ ging wurde ich aufeinmal von Paul beschossen.
    Äh?! Keine Ahnung warum.


    Passiert normalerweise nur, wenn man zu viel auf UNATCO-Soldaten schießt... was hast du da wieder angestellt, eh? :)

    Nicht ganz; es gibt eine oder zwei Leichen, die man im regulären Spielverlauf nicht vermeiden kann. Außer, man nutzt den einen oder anderen Bug aus... :D
    Aber ja, es ist möglich, mit sehr wenig Toten durch das komplette Spiel durchzukommen. Allerdings sollte man dabei auch ein bissl auf seine Verbündeten achten - bei mir haben Navarre und die beiden Soldaten in Castle Clinton irgendwann mal ein totales Blutbad angerichtet (einschließlich einem toten Penner und einem angeschossenen Kind), und ich wurde dann dafür zusammengestaucht, dass es so viele Tote gegeben hat. X(
    Außerdem nölen einen die anderen Charaktere auch an, wenn man zu viele Leute mit nichttödlichen Mitteln ausschaltet (gutes Beispiel: der UNATCO-Soldat, der auf Liberty Island Munition verscherbelt); scheinbar macht Deus Ex auf Scripting-Niveau keine Unterscheidung zwischen "tot" und "bewußtlos". :(


    Ghosting is the only way, auch wenn ich selber DX so noch nicht durch habe ;)

    Mit SoBig habe ich wenig Probleme, aber ich krieg inzwischen ca. 40 w32.Gibe-Mails am Tag. Ziemlich nervtötend, wenn man auf ISDN ist, nachdem jede Gibe-Mail etwa. 150kB groß ist... Inzwischen hab ich mir mit meinem lokalen Mailserver eine Filterregel eingerichtet, die alle Mails, die >150kB sind und irgendwo im Absender "Microsoft", "MS" oder die anderen von Gibe verwendeten Begriffe direkt vom Server löscht, ohne sie runterzuladen.
    Leider kann man mit Outlook/OE keine Filterregeln machen, die bestimmte Headerzeilen durchsuchen - in den meisten Fällen habe ich festgestellt, dass irgendein Virenscanner auf dem Weg von SoBig die Headerzeile "X-Virus: Infected" oder "X-Virus: {virusname}" einfügt - anhand diesen Kriteriums lassen sich solche Mails auch relativ einfach rauswerfen.

    Benutzt du einen Downloadmanager oder lädst du normal über deinen Browser runter?
    Falls du normal per Browser runterlädst, sei dir die Verwendung eines Downloadmanagers, besonders für große Dateien, sehr angeraten. Zwei brauchbare Downloadmanager sind LeechGet 2002 oder Star Downloader.

    Das tut er auch nur, weil ich mehr oder weniger an diesem Schreibtisch lebe. Kurz bevor ich die Fotos gemacht habe, hab ich noch zu Abend gegessen (man beachte den Teller und die elitäre Milchtüte auf meinem Drucker sowie das Playstation-Joypad neben dem Scanner). :)
    Außerdem brauch ich den Platz, um eine entspannte Arbeitshaltung einzunehmen (Füße rechts hoch auf die Schubladen, Ellbogen auf die Tischplatte, Funktastatur auf den Schoß) ;)