Stehen Männer lieber in der Öffentlichkeit als Frauen?

vom 31.03.2018, 12:12 Uhr

Eine Bekannte ist der Ansicht, dass Männer grundsätzlich lieber in der Öffentlichkeit stehen würden als dies bei Frauen der Fall wäre. So würden Frauen eher den Hintergrund vorziehen und nicht so im Mittelpunkt stehen wollen. Ich finde solche Pauschalisierungen ja total lächerlich.

Ich kenne durchaus ein paar Fälle, wo die Frau eher im Mittelpunkt stehen möchte und wehe der Partner kommt ihr die in die Quere. Wie seht ihr das? Kann man hier eurer Ansicht nach eine Tendenz erkennen? Stehen eurer Ansicht nach lieber Männer oder Frauen lieber in der Öffentlichkeit und damit im Fokus?

Benutzeravatar

» Täubchen » Beiträge: 33305 » Talkpoints: -1,02 » Auszeichnung für 33000 Beiträge



Ich bin auch der Meinung, dass man dies nicht nach Geschlechtern trennen kann. Ich kenne sowohl Frauen als auch Männer die gerne in der Öffentlichkeit oder im Mittelpunkt stehen wollen. Ich finde es daher auch unsinnig zu sagen, dass Männer da eindeutig mehr oder lieber in der Öffentlichkeit stehen wollen. Für manche Frauen ist es doch auch schon ein regelrechter Skandal, wenn sie nicht so beachtet werden. Das kann man meiner Meinung nach nicht pauschalisieren oder trennen.

Benutzeravatar

» Nelchen » Beiträge: 32238 » Talkpoints: -0,25 » Auszeichnung für 32000 Beiträge


Typisch Mann, typisch Frau, solche Aussagen finde ich albern. Es gibt durchaus Männer, die gerne in der Öffentlichkeit stehen, aber auch Frauen. Man kann das so pauschal sicherlich nicht sagen und sollte sich auch nicht so allgemein halten, wenn man darüber nachdenkt. So gibt es ja beispielsweise im Theater nicht nur Männer, sondern auch sehr viele Frauen und da steht man ja schon sehr in der Öffentlichkeit, genauso wie auf anderen Bühnen. Laut der Theorie dürfte es keinen weiblichen Star geben, was ja so aber nicht der Fall ist.

Benutzeravatar

» Ramones » Beiträge: 47746 » Talkpoints: 6,02 » Auszeichnung für 47000 Beiträge



Ähnliche Themen

Weitere interessante Themen

^