Werden die Deutschen immer depressiver?

vom 12.10.2018, 07:21 Uhr

Laut Medienberichten werden Antidepressiva so häufig verschrieben wie noch nie. Kann man daher davon ausgehen, dass die Menschen in Deutschland immer depressiver werden und die Verschreibung dieser Mittel daher zwingend notwendig ist?

Oder kann es auch sein, dass viele Antidepressiva unnötigerweise verschrieben werden? Welche Erfahrungen und Beobachtungen habt ihr in dieser Hinsicht machen können? Wie erklärt ihr euch die steigende Zahl an Verschreibungen?

Benutzeravatar

» Täubchen » Beiträge: 33305 » Talkpoints: -1,02 » Auszeichnung für 33000 Beiträge



Ich könnte mir vorstellen, dass mit dem Thema Depression einfach offener umgegangen wird. Viele trauen sich mittlerweile vielleicht eher wegen dieser Probleme einen Arzt aufzusuchen. Aber man hört ja auch immer wieder, dass die psychischen Erkrankungen immer mehr zunehmen. Dazu gehören Depressionen ja auch. Aber Anti-Depressiver werden ja nicht nur bei Depressionen verschrieben, sondern auch durchaus bei Angsterkrankungen und ähnlichem. Daher ist es sicherlich schwer zu sagen, ob bei den Deutschen die Depressionen zunehmen.

Benutzeravatar

» Nelchen » Beiträge: 32238 » Talkpoints: -0,25 » Auszeichnung für 32000 Beiträge


Ähnliche Themen

Weitere interessante Themen

^