Werden die Deutschen immer depressiver?
Laut Medienberichten werden Antidepressiva so häufig verschrieben wie noch nie. Kann man daher davon ausgehen, dass die Menschen in Deutschland immer depressiver werden und die Verschreibung dieser Mittel daher zwingend notwendig ist?
Oder kann es auch sein, dass viele Antidepressiva unnötigerweise verschrieben werden? Welche Erfahrungen und Beobachtungen habt ihr in dieser Hinsicht machen können? Wie erklärt ihr euch die steigende Zahl an Verschreibungen?
Ich könnte mir vorstellen, dass mit dem Thema Depression einfach offener umgegangen wird. Viele trauen sich mittlerweile vielleicht eher wegen dieser Probleme einen Arzt aufzusuchen. Aber man hört ja auch immer wieder, dass die psychischen Erkrankungen immer mehr zunehmen. Dazu gehören Depressionen ja auch. Aber Anti-Depressiver werden ja nicht nur bei Depressionen verschrieben, sondern auch durchaus bei Angsterkrankungen und ähnlichem. Daher ist es sicherlich schwer zu sagen, ob bei den Deutschen die Depressionen zunehmen.
Ähnliche Themen
Weitere interessante Themen
- Über welche Themen mit Ex trotz Freundschaft nicht reden? 1235mal aufgerufen · 6 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von Verbena
Forum: Liebe, Flirt & Partnerschaft
- Über welche Themen mit Ex trotz Freundschaft nicht reden?
- Fürs Abendessen im Hotel besonders hübsch aussehen wollen? 1513mal aufgerufen · 15 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von schnatterliese
Forum: Urlaub & Reise
- Fürs Abendessen im Hotel besonders hübsch aussehen wollen?