ツイート内容は「鮭の切り方」。
どこに自殺や自傷を推奨したり助長したりする内容があるのでしょうか?
「切る」とか「包丁入れる」というところでしょうか?
いやぁこれでルール違反判定になって、しかも繰り返したら凍結の危険性もあるというのですから、おかしな話ですw

これはTwitter側のAIの判定の甘さが原因なんですよね。
人間が見れば問題ないツイートでも、AIが見れば問題あるツイートになってしまうことがあります。
AIの未熟な判定に振り回されるユーザーは大変ですね。