Wenn Psychiater einen Computer zum Therapeuten ausbilden wollen...

  • ...kommt sowas bei raus:


    Zitat

    Nabla, a French start-up specialized in healthcare technology, tested GPT-3 as medical chatbot, though OpenAI itself warned against such use. As expected, GPT-3 showed several limitations. For example, while testing GPT-3 responses about mental health issues, the AI advised a simulated patient to commit suicide.



    Die ist bei weitem nicht der erste und wohl nicht der letzte Versuch dieser Art. Ganz sicher aber der mit dem bisher abscheulichsten Ergebnis.

  • Wusste gar nicht dass es das noch gibt.


    Hab mal kurz was zum obigen passendes reingetippt:


    Zitat

    > Hello, I am Eliza. I'll be your therapist today.

    * Hello

    > It is nice to be chatting with you.

    * Should i commit suicide?

    > I'm not sure I understand you fully.