weiss das man gesagt bekommt das man hiv positiv ist, aber bei negativ, wird es auch gesagt?
2011-05-12T19:18:41Z
ja mir gehts nur darum ob es vom frauenarzt und auch anderen ärzten gesagt wird wenn negativ.....oder nur bei positiv? wie ist es bei euch die kinder haben....wurde euch gesagt das negativ ist beim hiv test oder wurd nichts gesagt.....
Drudeldidö2011-05-12T19:35:47Z
Beste Antwort
Nein , es sei denn Du bist nur deswegen beim Arzt gewesen , aber im Normalfall im Rahmen von mehreren Untersuchungen wird Dir ein negativer Befund nicht mitgeteilt , würde keinen Sinn machen . So meine Erfahrung .
Getestet solltest du eigentlich nur mit deinem Einverständnis werden. Ansonsten nachfragen ob einer gemacht wurde und wie es aussieht. Gerade wenn du Kinder willst ist das wichtig. Ansonsten wird (auch nur mit deinem Einverständnis) am Anfang der Schwangerschaft getestet. LG Blümchen
Es gibt halt immer noch Leute, die HIV und AIDS nicht unterscheiden können, siehe 1. Post. Außerdem: Schon mal daran gedacht, dass die Nachricht HIV negativ zu sein, eine Erleichterung sein kann?
Sorry, dass ich deine Frage damit nicht beantwortet habe, aber dass musste ich jetzt einfach loswerden ;D
... na ja, das bedeutet doch alles OK ist... also dass man sich nicht infiziert hat! Diese Mitteilung ist nahezu überflüssig während d Ermahnung wenn man Positiv ist, Lebens rettend sein kann, da jederzeit kann ein Infizierte anderen anstecken!
Wenn danach fragst wie dein Untersuchung ausgefallen hat, und ob AIDS hast oder nicht, dann kann dies bestimmt beantwortet werden... Bei Blutuntersuchungen aber sagen die Ärzte auch meistens was nicht d Normen entspricht, udn nicht was OK ist!