2015

Απριλίου 2024
Δ Τ Τ Π Π Σ Κ
« Φεβ    
1234567
891011121314
15161718192021
22232425262728
2930  

Modele de caractere en 4 lettres

Pour appliquer le modèle aux deux expériences, nous prolongeons l`EQ. (1) comme suit: la valeur de $n $ passé dans _. init _ (Self, n, k) est l`ordre le plus élevé n-gramme à considérer par le modèle (par exemple, $n = $2 considérera 3 longueurs différentes n-grammes). Le lissage Add-k ne doit avoir lieu que lors du calcul des probabilités de n-gramme d`ordre individuel, et non lors du calcul de la probabilité d`interpolation globale. Plusieurs processus psychologiques pourraient influencer λi. Par exemple, la perception peut avoir son impact au cours des stades précoces de la perception, affectant la probabilité qu`une image exacte soit perçue, peut-être déformée par des sources de bruit internes ou externes. Notre modèle ne fait pas de distinction entre ces sources, bien que l`on puisse, si des procédures expérimentales adéquates étaient employées (cf. Mueller et Weidemi, 2008). Alternativement, λi peut être influencé par un aspect du processus de comparaison, évaluant la similitude entre une percept et l`option de réponse affichée. Si un masque a systématiquement introduit ou effacé des entités de la percept d`un caractère particulier, cela entraînerait probablement une valeur inférieure pour λi; s`il efface systématiquement les entités sur tous les caractères de stimulus, l`interception de la ligne de base peut être réduite à la place.

Paramètres fiables du modèle 3 à l`aide de la technique de sélection du modèle BIC. Des valeurs plus petites et plus négatives indiquent qu`une lettre était moins perceptible, biaisée contre, ou qu`une combinaison de lettres était moins bien discriminée que ce que l`on attendait de la perception et du biais seuls. La précision des cotes de log de référence était de 1,306, ce qui équivaut à un pourcentage de précision de 78,7, qui était limité à être le même dans les deux expériences. Plusieurs personnages individuels et combinaisons de caractères se distinguent dans cette étude. Ceux-ci incluent les «A» et «i» dans l`expérience 1, et le «X», «H», et «i» dans l`expérience 2. En examinant les paramètres du modèle, nous pouvons identifier des explications psychologiques expliquant pourquoi ces lettres ont été mal identifiées. Par exemple, le «I» a un biais universellement négatif dans les deux expériences, mais n`a qu`une perception négative dans l`expérience 2, où il était très similaire aux entités dans le caractère de masque. En d`autres termes, le # fait le «i» difficile à voir, mais les gens étaient généralement réticents à répondre avec un «i», peut-être parce qu`ils ont été mal étalonnés dans la façon dont il était difficile en fait. Bien qu`il ne soit pas surprenant que les perceptions des «I», «X» et «H» aient été touchées par le masque «#», il est peut-être surprenant de constater que la mauvaise performance est réellement devenue. Les paramètres du modèle ont été estimés en ajustant une régression linéaire pour tenir compte de la précision des cotes logarithmique avec la combinaison appropriée de paramètres d`interception, de perception, de biais et de dissimilarité, tel que spécifié dans l`égaliseur (2). Pour identifier un ensemble minimal de paramètres qui représentaient de manière fiable les données, nous avons utilisé une procédure de régression par étapes disponible dans la fonction stepAIC du paquet MASS (Venables & Ripley, 2002) de l`environnement de calcul statistique R (R développement Core Team, 2008), en utilisant le critère d`information Bayésien (BIC; Schwarz, 1978) pour déterminer quels paramètres doivent être inclus dans le modèle.

Les schémas de sélection bayésiens ont été de plus en plus utilisés pour choisir entre les modèles en psychologie, et surtout entre les modèles de perception tels que la théorie des choix (cf. Myung, 2000; Myung & Pitt, 1997; Pitt et coll., 2002, 2003). La statistique BIC combine la valeur maximale de probabilité de l`ajustement avec un facteur de pénalité pour la complexité du modèle (k log 2 (N) pour les paramètres k et N points de données), de sorte qu`un paramètre n`est conservé dans le modèle si sa bonté d`ajustement améliore plus que la pénalité de complexité Terme.