なぜ畳み込み層にバイアスが要るの?

バイアス無くても良くない?そう言えば,全結合層だってバイアス無くても良くない?ネットで調べたけど,答は分からなかった.

答が探せないので自分で考えた.バイアスは活性化関数の閾値というか活性レベルを変える働きをする.そのために付いているのではないかな.

その 活性化関数がなぜReLUみたいな形をしているのかについては,「ゼロからつくるディープラーニング」に,ネットワークに非線形を加えることで複雑な表現が可能になると書いてある.

あと多チャンネル(普通はRGB)の畳み込みでチャンネル毎の結果を加算して出力する理由もなぜ?分けてはいけないの?加算するがゆえに1×1のフィルターの意味が生じる訳なんだが.加算しなければ1×1の畳み込みって何もしてないのと同じだものね.