PC-Gaming

Asoou „unter“ dem Daumen :man_facepalming:t3: Hab das „unter“ falsch gedeutet, die MX hat ja 2 Daumenknöpfe und ein Daumenrad das wenn man dem Daumen dort liegen hat eben unterm Daumen is. Aber das andere „unter“ :sweat_smile:

1 „Gefällt mir“

Wobei, @LcDruid das ist auch ne Taste (wenn auch nicht so komfortabel wie vll bei deiner)

1 „Gefällt mir“

Die sieht aus als ob die weh tun täte :rofl:

1 „Gefällt mir“

meine g403 prodigy wireless wurde 2016 gekauft und würde noch immer ihren dienst verrichten. problem war, dass sie sich nur mit einem gerät verbinden konnte und mir das zu wenig war, ich nicht immer 2 mäuse am schreibtisch stehen haben wollte.

image

die razer orochi v2, die ich gerade habe, musste nach einem jahr getauscht werden, weil das mausrad nicht mehr wollte von einem tag auf den anderen. wurde aber wenigstens noch von razer unter garantie gewechselt.

image

bzgl alter gaming mäuse von früher: da hatte ich die logitech wingman gaming maus:

image

und die razer boomslang 2000:

image

das problem der zeit war weniger der verschleiß elektronischer teile oder knöpfe, sondern einfach die technik rund um den mausball, die einfach immer anfällig war auf sukzessive verschmutzung. nervig war auch das kabel, weswegen ich eigentlich seit der logitech mx700 immer mit kabellosen mäusen gespielt habe.

image

1 „Gefällt mir“

So wie ich das hier lese einfach Stand der Technik das heute Mäuse in 3 Jahren kaputt sind. :sweat_smile:

1 „Gefällt mir“

ka, ob zufall, oder weil ich durch meinen post …

… die heiligen götter der keyword-algorithmen getriggered habe, kam mir in den letzten 2 tagen folgende artikel unter:

einzig intel dürfte zzt noch seinen mann/seine frau stehen.

image

3 „Gefällt mir“

So viele Intel Arc User dürfte es hier nicht geben, wer aber den neuesten Beta-Treiber wegen Baldurs Gate 3 Optimierungen installiert hat, sollte beachten, dass Intel eine vorausgewählte, aber abschaltbare Telemetrie Funktion im Treiber mitliefert.

Was genau gesammelt wird, steht im Artikel (zb Kategorie der besuchten Webseiten).

Quelle:

2 „Gefällt mir“

ist ja ganz wichtig für die grafikkartentreiber, dass sie wissen, welche websiten die user besuchen. /s

mE eine unart. intel ist ja kein kleines unternehmen. sollen doch bitte ihre eigenen testlabs laufen lassen für treiber-testungen.

2 „Gefällt mir“

Leak:

DLSS 3.5 wird auf der Gamescom vorgestellt und bringt einige spannende Neuerungen!

https://www.golem.de/news/raytracing-verbessert-nvidia-stellt-dlss-3-5-mit-ray-reconstruction-vor-2308-176983.html

4 „Gefällt mir“

und alan wake 2 bekommt eine path-tracing option, für leute mit der notwendigen hardware. https://www.eurogamer.net/digitalfoundry-2023-nvidia-announces-dlss-35-with-ray-reconstruction-boosting-rt-quality-with-an-ai-trained-denoiser

1 „Gefällt mir“
1 „Gefällt mir“

das sieht schon sehr, sehr gut aus.

1 „Gefällt mir“

Ich finds total schade, dass die aktuellen Konsolen auf AMD setzen und damit kein DLSS beherrschen. Wenn das Standard wäre, dann würden die Spiele auf diese Technik hin optimiert werden und gleich noch viel mehr nach NextGen aussehen.

3 „Gefällt mir“

WIe würde das ausschauen wenn Nvidia das, wie AMD ihr FSR, auch öffentlich machen würde? Könnte eine AMD GPU DLSS benutzen? Anders herum funktioniert das Ganze ja.
Was ich auch schade finde ist, das FSR 2.x nicht mehr genutzt wird. Mittlerweile ist FSR schon gut verwendbar, wenn man die Versionen ab 2.x verwendet.

Nein das ginge leider nicht da DLSS spezielle Kerne auf der GPU (genannt Tensor) nutzt, die nur von Nvidia verbaut werden. Diese Kerne sind auf KI-Berchnungen optimiert und nutzen ein neuralea Netzwerk zur Berechnung der Bilder.

Hier eine kurze Zusammenfassung die ich gefunden habe:

Dass Nvidia bei DLSS 2.0 ein maschinelles Verfahren dazu nutzt, die Informationen der vorherigen Frames miteinander zu kombinieren, während AMD „fortgeschrittene Algorithmen verwendet, die Verhältnisse zwischen verschiedenen Frames und Auflösungen erkennen können“, bleibt indes ein Unterschied. Bei AMD soll es die GPU alleine richten, das Bild vor dem Upscaling zu „verstehen“, während bei Nvidia jedes unterstützte Spiel zuvor in einem neuronalen Netzwerk analysiert wird. Die so „antrainierten“ Erkenntnisse sollen das Ergebnis weiter verbessern. Ob AMDs rein lokaler Ansatz genauso gut funktioniert wie mit einem neuronalen Netzwerk im Hintergrund, wird sich zeigen müssen.

Kein neuronales Netzwerk hat den Vorteil, dass FSR 2.0 anders als DLSS keine Matrix-Einheiten (Tensor-Kerne) zur (optionalen) Beschleunigung benötigt, die Berechnungen zu FSR 2.0 werden auf den normalen Shader-Einheiten durchgeführt. Darüber hinaus bindet AMD die Technik auch nicht an die eigenen Radeon-Grafikkarten, sodass FSR 2.0 wie schon FSR 1.0 auf jeder aktuellen GPU funktionieren wird – ganz egal ob von AMD, Nvidia oder Intel

FSR 2.0 ist ok - aber schon deutlich schlechter als DlSS 3 - sowohl was Qualität als auch Performance betrifft. Mittlerweile gibt es auch noch von Intel eine vergleichbare Technologie. Die ist ebenfalls auf allen Karten nutzbar und liefert oft bessere Ergebnisse als FSR.

2 „Gefällt mir“

das ist kein leak mehr, das ist ein duschkopf:

Bin gerade am überlegen welche Grafikkarte ich mir kaufen soll.
Aktuell hab ich ne Asus 3080 Ti Tuf, die aber wohl ne kleine Letten hat, da sie sich komisch verhält.

Hab aktuell folgende Modelle in Erwägung:
Sapphire Nitro+ Radeon RX 7900 XTX Vapor-X für ca. 1100 Euro
ASUS ProArt GeForce RTX 4080 OC Edition für ca. 1500 Euro
MSI GeForce RTX 4090 Suprim X 24G für ca. 1900 Euro

Ziel ist 4k60-144 FPS bei meistens Max Details (nicht immer Raytracing)

Die Radeon scheint mir ein gutes Preis/Leistungsverhältnis zu haben wenn ich auf die Nvidia Features und Raytracing verzichten kann.
Die ProArt gefällt mir von der Größe und Design ganz gut und mit den Nvidia Features hab ich wohl mehr davon als die Radeon die ca. gleich schnell ist ohne RTX und DLSS.
Oder gleich over the top und die 4090 nehmen ? sind ja nur 400 mehr haha.
Fragen über Fragen.

1 „Gefällt mir“

Amd gpus kommen mir zZt nicht in ein System Mangels rtx und dlss.

1 „Gefällt mir“

Ja ich glaub, dass täte ich dann auch sehr vermissen, zu gut sind die Features, denke ich tendiere aktuell zur Asus ProArt RTX 4080