Logo Passei Direto
Buscar

Teste de Conhecimento sobre Cadeias de Markov

Ferramentas de estudo

Questões resolvidas

Em um processo markoviano, a probabilidade do estado atual (Xk) não depende do estado anterior (Xk-1), mas somente dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) não depende nem do estado anterior (Xk-1), nem dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende somente do estado anterior (Xk-1), mas não depende dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende de todos os estados anteriores.
Nenhuma das alternativas anteriores.

Assinale o nome recebido por um processo markoviano em que o espaço de estados é discreto:
cadeia discreta
cadeia de estados
nenhuma das alternativas anteriores
processo discreto
cadeia de Markov

Uma Cadeia de Markov ou sua matriz de transição P em que existe uma potência inteira positiva n tal que Pn tenha todas as entradas positivas é dita:
positiva
aumentada
nenhuma das alternativas anteriores
expandida
regular

Considere uma cadeia de Markov com estados 1, 2, ..., N. Assim, p12 representa:
O quadrado da probabilidade estacionária do estado 1.
A probabilidade de transição do estado 2 para o estado 1.
A probabilidade de transição do estado 1 para o estado 2.
Nenhuma das alternativas anteriores
O quadrado da probabilidade estacionária do estado 2.

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

details

Libere esse material sem enrolação!

Craque NetoCraque Neto

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Questões resolvidas

Em um processo markoviano, a probabilidade do estado atual (Xk) não depende do estado anterior (Xk-1), mas somente dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) não depende nem do estado anterior (Xk-1), nem dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende somente do estado anterior (Xk-1), mas não depende dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende de todos os estados anteriores.
Nenhuma das alternativas anteriores.

Assinale o nome recebido por um processo markoviano em que o espaço de estados é discreto:
cadeia discreta
cadeia de estados
nenhuma das alternativas anteriores
processo discreto
cadeia de Markov

Uma Cadeia de Markov ou sua matriz de transição P em que existe uma potência inteira positiva n tal que Pn tenha todas as entradas positivas é dita:
positiva
aumentada
nenhuma das alternativas anteriores
expandida
regular

Considere uma cadeia de Markov com estados 1, 2, ..., N. Assim, p12 representa:
O quadrado da probabilidade estacionária do estado 1.
A probabilidade de transição do estado 2 para o estado 1.
A probabilidade de transição do estado 1 para o estado 2.
Nenhuma das alternativas anteriores
O quadrado da probabilidade estacionária do estado 2.

Prévia do material em texto

30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 1/4
Teste de
Conhecimento
 avalie sua aprendizagem
Assinale a ÚNICA alternativa correta:
SIMULAÇÃO DA PRODUÇÃO E TEORIA DAS FILAS
Lupa Calc.
 
 
CCE1325_A2_202003164879_V1 
 
Aluno: RONALDO DE SOUSA GOMES Matr.: 202003164879
Disc.: SIM.P.T.DAS FILAS 2022.1 EAD (GT) / EX
 
Prezado (a) Aluno(a),
Você fará agora seu TESTE DE CONHECIMENTO! Lembre-se que este exercício é opcional,
mas não valerá ponto para sua avaliação. O mesmo será composto de questões de múltipla
escolha.
Após responde cada questão, você terá acesso ao gabarito comentado e/ou à explicação da
mesma. Aproveite para se familiarizar com este modelo de questões que será usado na sua
AV e AVS.
 
1.
Em um processo markoviano, a probabilidade do estado atual (Xk) não depende do
estado anterior (Xk-1), mas somente dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) não depende nem do
estado anterior (Xk-1), nem dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende somente do
estado anterior (Xk-1), mas não depende dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende de todos
os estados anteriores.
Nenhuma das alternativas anteriores.
 
 
 
Explicação:
Como indicado na própria definição de processo markoviano, "a probabilidade do estado atual
(Xk) depende somente do estado anterior (Xk-1), mas não depende dos estados anteriores".
 
javascript:voltar();
javascript:voltar();
javascript:diminui();
javascript:aumenta();
javascript:calculadora_on();
30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 2/4
Assinale o nome recebido por um processo markoviano em que o espaço de estados é
discreto:
Assinale a alternativa que apresenta o estado estacionário associado à matriz de transição P
dada por 
 
 
 
2.
cadeia discreta
cadeia de estados
nenhuma das alternativas anteriores
processo discreto
cadeia de Markov
 
 
 
Explicação:
Quando o conjunto ¿ ou espaço de estados ¿ é discreto , o processo markoviano recebe uma
denominação especial: cadeia de Markov.
 
 
 
 
3.
nenhuma das alternativas anteriores
 
 
 
Explicação:
Ref.: Utilize o site octave-online.net e insira os seguintes comandos:
P = [0.3, 0.2, 0.5; 0.1, 0.4, 0.4; 0.6, 0.4, 0.1]
P^100
 
 
⎛
⎜
⎝
0.3 0.2 0.5
0.1 0.4 0.4
0.6 0.4 0.1
⎞
⎟
⎠
⎛
⎜
⎝
0.30 0.30 0.30
0.30 0.30 0.30
0.40 0.40 0.40
⎞
⎟
⎠
⎛
⎜
⎝
0.34 0.34 0.34
0.30 0.30 0.30
0.36 0.36 0.36
⎞
⎟
⎠
⎛
⎜
⎝
0.20 0.20 0.20
0.30 0.30 0.30
0.50 0.50 0.50
⎞
⎟
⎠
⎛
⎜
⎝
0.37 0.37 0.37
0.30 0.30 0.30
0.33 0.33 0.33
⎞
⎟
⎠
30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 3/4
Uma Cadeia de Markov ou sua matriz de transição P em que existe uma potência inteira
positiva n tal que Pn tenha todas as entradas positivas é dita:
Considere a matriz P dada por:
Assinale a alternativa que expressa P2:
 
 
 
4.
positiva
aumentada
nenhuma das alternativas anteriores
expandida
regular
 
 
 
Explicação:
Uma Cadeia de Markov ou sua matriz de transição P é dita ser regular se existir uma potência
inteira positiva n tal que Pn tenha todas as entradas positivas
 
 
 
 
5.
nenhuma das alternativas anteriores
 
 
 
Explicação:
Ref.: Realize a operação com apoio da ferramenta online disponível em matrixcalc.org, acesso
em 09 DEZ 19
⎛
⎜
⎝
0.3 0.2 0.5
0.1 0.4 0.4
0.2 0.2 0.6
⎞
⎟
⎠
⎛
⎜
⎝
0.17 0.24 0.53
0.15 0.26 0.45
0.20 0.24 0.54
⎞
⎟
⎠
⎛
⎜
⎝
0.21 0.24 0.53
0.15 0.26 0.45
0.20 0.24 0.54
⎞
⎟
⎠
⎛
⎜
⎝
0.21 0.24 0.53
0.15 0.26 0.45
0.20 0.20 0.54
⎞
⎟
⎠
⎛
⎜
⎝
0.21 0.24 0.53
0.15 0.23 0.45
0.20 0.24 0.54
⎞
⎟
⎠
30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 4/4
Considere uma cadeia de Markov com estados 1, 2, ..., N. Assim, p12 representa: 
 
 
 
 
6.
Nenhuma das alternativas anteriores
O quadrado da probabilidade estacionária do estado 1.
O quadrado da probabilidade estacionária do estado 2.
A probabilidade de transição do estado 1 para o estado 2.
A probabilidade de transição do estado 2 para o estado 1.
 
 
 
Explicação:
Em uma cadeia de Markov com estados 1, 2, ..., N, pij representa a probabilidade de transição
do estado i para o estado j. 
 
 
 
 
 
 
 
 Não Respondida Não Gravada Gravada
 
 
Exercício inciado em 30/03/2022 22:47:59. 
 
 
 
 
javascript:abre_colabore('35904','279374904','5174558471');

Mais conteúdos dessa disciplina