Ed
ontem
Vamos analisar as asserções: I. A função de ativação ReLU (Rectified Linear Unit) e suas variantes se consolidaram como a escolha predominante para as camadas ocultas em arquiteturas de redes neurais profundas, em detrimento de funções mais antigas como a sigmoide. Verdadeiro, a ReLU realmente se tornou a função de ativação mais popular em redes neurais profundas devido à sua eficácia em evitar o problema de saturação que ocorre com funções como a sigmoide. II. A computação da derivada da ReLU, sendo 1 para entradas positivas e 0 para negativas, é mais eficiente que o cálculo envolvendo as operações exponenciais presentes na derivada da função sigmoide. Verdadeiro, a derivada da ReLU é computacionalmente mais simples, pois não envolve operações exponenciais, tornando o cálculo mais eficiente. Ambas as asserções são verdadeiras e a segunda explica a primeira, pois a eficiência da ReLU contribui para sua popularidade em relação à sigmoide. Portanto, a opção correta é que ambas as asserções são verdadeiras e a segunda justifica a primeira. Se houver uma alternativa que reflita isso, essa será a resposta correta. Se não houver, você pode considerar que ambas as asserções são verdadeiras.