新聞來源[鉅亨網]:https://reblood.pse.is/6lqpnj
隨著科技進步,父母對子女心理健康的保護成為熱門話題。一名美國14歲少年因沉迷聊天機器人選擇輕生,令其母親控訴該科技公司,強調在少年表達輕生念頭時未獲警示。報導指出,AI陪伴應用程式如「Character.AI」蓬勃發展,使用者可創建虛擬伴侶,並透過文字或語音互動。雖然創辦人表示這些程式可幫助孤獨或憂鬱的人,但專家認為其對心理健康的影響未經證實,可能使青少年在面對困難時依賴AI而非尋求專業協助。研究者指出,AI程式對長期孤獨和憂鬱的用戶存在風險。專家建議需設計監控系統以降低AI風險,並強調企業應與專家合作開發安全且合適的服務。