Image : http://djpeach.blogspot.kr



글 : 인지심리 매니아


우리가 암기한 영단어는 어떤 형태로 저장될까? 몇몇 심리학자들은 외국어가 일화기억(Episodic memory)의 형태로 저장된다고 주장한다. 일화기억은 개인의 경험, 즉 자전적 사건에 관한 기억으로서 사건이 일어난 시간, 장소, 상황 등의 맥락을 함께 포함한다. 예를 들어 Understand라는 단어를 처음 배운 학생은 단어를 회상할 때 단어를 배웠던 상황을 떠올린다는 것이다. ‘아, Understand라는 단어는 과외 선생님이 가르쳐줬던 단어였는데, 이해하다라는 뜻이었지.’

반면, 모국어의 경우 의미기억(semantic memory)의 형태로 저장되어 있다고 주장한다. 의미기억은 대상 간의 관계 또는 단어 의미들 간의 관계에 관한 지식을 말한다. ‘이해하다'라는 단어를 봤을 때 우리는 그 단어의 의미를 바로 떠올릴 뿐, 이 단어를 맨 처음 학습했던 상황이나 관련 맥락을 떠올리지는 않는다는 것이다.


‘The Episodic L2(Second Language) 가설’이라고 불리는 이 주장을 검증하기 위해 Witzel과 동료들은 Jiang & Forster(2001)[각주:1]의 실험을 반복 검증하기로 했다[각주:2]

연구자들은 모국어(L1)가 중국어, 제 2외국어(L2)가 영어인 참가자를 모집했다. 그 다음 34개의 중국어 단어를 기억하게 했다. 

학습 단계가 끝난 후, 참가자는 두 가지 테스트를 받았다. episodic recognition task에서는 제시한 중국어 단어가 이전에 봤던 단어인지 아닌지를 판단했다. lexical decision task에서는 제시한 중국어 단어가 단어 또는 비단어(i,e ‘까푸'처럼 아무 뜻이 없는 단어)인지 판단하게 했다. 이 때, 연구자들은 참가자가 눈치채지 못하게 중국어 단어 제시에 앞서 동일한 뜻의 영단어를 잠깐 동안 제시했다(점화, Priming).



실험절차



이 실험의 논리는 다음과 같다. 만약 외국어가 일화기억의 형태로 저장되어 있다면, 50ms동안 제시한 영단어는 일화기억을 점화시킬 것이다. 그렇다면 제시된 중국어 단어 중 테스트 직전에 보여준 단어(old item)에 대한 반응이 빨라질 것이다. 왜냐하면 ‘단어를 봤던 적이 있다는 사실'에 관한 기억은 일화기억이기 때문이다. 반면, 이전에 본 적이 없는 중국어 단어에 대한 반응시간은 느릴 것이다. 이 기억들은 의미기억에 저장되어 있으므로, 일화기억의 점화에 영향을 받지 않을 것이기 때문이다.


실험 결과, 연구자들은 Jiang and Forster(2001)의 연구결과를 반복검증하는 데 성공했다. 점화효과는 old item에서만 발견되었기 떄문이다. 하지만 조금 이상한 결과도 함께 관찰되었다. 중국어를 점화 단어, 영단어를 목표 단어로 바꿔서 실험한 경우(L1-L2 조건)에도 점화 효과가 발견되었기 때문이다. 모국어는 의미기억을 점화하기 때문에 일화기억에 저장된 단어에 영향을 미치지 않아야 하지만, 실험에서는 이와 달리 old item에 대한 반응시간이 빨라진 것이다(new item에 대한 반응시간 역시 빨라졌다). 결과적으로 이 실험은 이중해리(double dissociation) 검증에 실패한 것이다.


연구자들은 이 결과에 대해 다음과 같이 해명하고 있다. 외국어가 목표 단어인 경우 이 단어는 의식적으로 처리되며, 따라서 의사결정 시스템 또한 일화기억으로 전환된다는 것이다. 결국 old item, new item은 모두 일화기억의 점화 상태에서 처리되므로 두 조건 간 차이는 사라지며, L1의 점화효과는 어디까지나 일반적인 점화 효과일 뿐이라는 설명이다. 


  1. Jiang, N., & Forster, K. I. (2001). Cross-language priming asymmetries in lexical decision and episodic recognition. Journal of Memory and Language, 44, 32–51. doi:10.1006/jmla.2000.2737 [본문으로]
  2. Witzel, N. O., & Forster, K. I. (2012). How L2 Words Are Stored: The Episodic L2 Hypothesis. [본문으로]

출처: Music Matters(Henkjan Honing)

번역: 인지심리 매니아



아기를 갖게 된 부모들은 아기와 대화할 때 이상한 언어를 구사한다. 아빠와 엄마 뿐만 아니라 주위 사람들도 아기와 이야기 할 때  "두 두 두 두, 다 다 다 다"같은 일종의 옹알이를 사용한다. 그런데 우리가 이 아기에게 도대체 뭐라고 말하는 걸까? 이 "두 두 두 두, 다 다 다 다"는 무슨 뜻일까?


어른이 아기와 대화할 때 사용하는 이 옹알이를 전문적인 용어로 infant-directed speech(IDS)라고 한다. IDS는 정상적인 성인의 언어와 구분되며 높은 음, 과장된 멜로디의 높낮이, 느린 템포, 변화무쌍한 리듬을 특징으로 한다. IDS는 일종의 음악적 언어지만, 의미가 불명료하고 문법이 없다. 그렇기 때문에 나는 이것을 "babble music'이라고 부를 것이다. 아기들은 babble music을 좋아하며, 부모가 이렇게 말해주면 굉장히 좋아한다. 마치 폴리스의 음악에서 들을 수 있는 "데 두 두 두, 데 다 다 다"나 카일리 미노그의 "라 라 라"가 매력있는 것과 같다.


부모가 아이와 하는 babble conversation은 전세계적으로 기록되어 왔다. 이 중 몇 개를 들어본다면 그들이 무슨 대화를 하는지는 전혀 알 수 없지만 어떤 감정을 전달하려는지는 음높이를 통해 알 수 있다. 특히 대화가 놀이에 가깝거나, 지시를 내리거나, 설득하는 목적으로 쓰일 때 더욱 명료해진다. "That's the way!"같은 격려의 문장이나 "잘했어" 같은 문장은 보통 음높이가 상승하다가 내려가는 양상을 띠면서 가장 높은 음을 강조한다. "아니, 그만" 같은 경고나 "조심해, 만지지 마!"같은 문장은 낮은 음높이와 함께 스타카토 같은 리듬을 가진다. 만약 이 대화를 필터링해서 음소를 제거하고 오직 음악적 부분만 남겨놓는다 해도, 우리는 이 소리가 격려 또는 경고의 메세지인지 알아차릴 수 있다. 왜냐하면 의미 정보가 언어 자체가 있기 보다 멜로디나 리듬에 담겨 있기 때문이다.


대부분의 언어학자들은 리듬이나 강약, 억양이 유아로 하여금 자기 문화의 언어에 익숙해지게끔 만든다고 본다. 단어와 단어의 분절은 과장된 억양의 높낮이와 리듬의 변화를 통해 이루어지며, 이를 통해 특정 단어 학습이 촉진된다. 


교육적으로 봤을 때, 부모가 이렇게 "babble music"을 사용하는 기간은 상당히 길다. 유아들은 태어난지 아홉 달이 지나서야 성인의 언어에 관심을 가지지만, babble music의 경우 태어난 직후부터 관심을 보인다. 특정 단어나 단어의 분절, 소리의 구조에 대한 관심은 생후 일년이 지나야 형성되며, 이때부터 의미있는 단어를 말할 수 있다. 따라서 생후 얼마 되지 않은 아기에게 IDS가 언어 학습의 보조도구로 사용된다는 주장은 설득력 있어 보이지 않는다.


대안적 설명은 IDS가 언어적 준비도구가 아니라 그 자체로 언어적 형태라고 주장한다. 진짜 언어를 사용할 수 없는 동안 의사소통을 위해 일종의 '음악'을 사용하는 것이다. 이 언어는 감정적 정보를 전달하는 역할을 한다. 이 언어는 문법은 없지만 여전히 정서적 의미를 지닌 언어다.

출처: Ulterior Motive

번역: 인지심리 매니아 

 

어제 IBM의 슈퍼컴퓨터 왓슨(Watson)이 두 명의 인간과 벌인 Jeopardy 토너먼트에서 승리를 거두었다. 나는 지난 블로그에서 사람들이 왓슨의 똑똑함에 감탄하지 않는 이유를 설명했었다. 이번 글에서는 왓슨의 퀴즈에서 승리를 거두기 위해 개발자들이 해결해야만 하는 문제들에 대해 이야기하고자 한다.

 

왓슨이 해결해야 하는 문제들의 거의 대부분이 '관련성(relevance)'에 관한 문제들이다.

 

우리는 최근들어 컴퓨터와 많은 시간 대화를 나누고 있다. 당신이 회사의 고객서비스에 전화를 걸면 컴퓨터가 응답을 하고 당신에게 몇 가지 질문을 할 것이다. 이런 시스템의 대부분은 당신에게 간단한 질문을 하거나 제한된 숫자 몇 자리를 받는다. 컴퓨터가 특정 질문을 묻고 당신이 무엇을 할지에 관한 스크립트를 가지고 있기 때문에,당신의 대답이 적절한지 여부를 판단할 수 있다.

Jeopardy에서 가장 큰 문제는 어떤 정보가 문제 해결을 위해 필요한지 컴퓨터가 계산해야 한다는 점이었다. 먼저 왓슨이 실제로 풀었던 퀴즈를 살펴보자. 진행자가 던졌던 질문의 목록은 http://www.j-archive.com에서 볼 수 있다.

왓슨이 정답을 맞췄던 질문부터 시작하자. 질문은 "And any time you feel the pain, hey" ?? "refrain, don't carry the world upon your shoulders."이었다.

표면적으로 보면, 꽤 간단해 보인다. 이 글귀는 비틀즈의 "Hey Jude" 가사 중 일부다. 질문에는 Jude의 이름이 빠져 있으므로, 정답은 분명 Jude다. 만약 당신이 이 질문을 구글에서 고스란히 검색했다면, 해당 가사 전체가 떴을 것이다.

 

하지만, 컴퓨터는 정답이 "Hey Jude"가 아니라 "Jude"라는 사실을 알아야만 한다. 즉, 컴퓨터는 질문이 곡명이 아니라 사람의 이름을 묻고 있음을 이해해야 한다. "Beatles People"이라고 이름붙여진 이 질문의 초점은 곡명이 아닌 이름이다. 사람은 이를 쉽게 이해할 수 있지만, 컴퓨터를 프로그래밍하는 사람에겐 쉬운 일이 아니다.

 

또 왓슨은 정보의 어떤 부분이 질문의 답으로 적절한지 알아내야 한다. 당신이 학교에서 해 본 적이 있는 단어 게임을 상기시켜보자. 똑똑한 선생님이라면 몇가지 추가적 정보를 흘려서 당신을 혼란스럽게 만들 것이다. 마찬가지로, Jeopardy 문제 중 일부는 컴퓨터를 헷갈리게 만든다. "Don't Worry About it"이라는 제목의 문제는 "You just need a little more sun! You don't have this hereditary lack of pigment"라고 되어 있다. 정답은(왓슨도 맞췄다) "Albinism(태어날 때부터 피부나 눈동자 등이 하얀 것을 말함, 백색증)"이다.

 

이미 알아차렸겠지만, 이 질문의 첫번째 문장은 정답과 무관하다. 이 문장은 질문 제목인 "Don't Worry About it"과 관련 있다. "heredity lack of pigment."라는 문장으로부터 백색증을 생각해내기는 쉬워보이지만, 문장 중 일부만이 질문과 관련있다는 것을 알아내는 것은 어려운 일이다. 따라서, 시스템은 질문의 구성방식과 질문 카테고리를 연결시켜서 질문의 핵심이 무엇인지 파악해야만 한다.

 

왓슨이 대답할 수 있었던 대부분의 질문이 이런 특성을 가지고 있다. 또 다른 예에서 "Etude, Brute"라는 카테고리는 "An etude is a composition that explores a technical musical problem; the name is French for this"라는 질문으로 이루어져있다. 이 경우, 문제를 풀기 위해 문장의 앞부분은 필요하지 않다.

 

사람들이 문장에서 어떤 정보가 적절한지 알아내는 방법 중 하나는 바로 give-new convention이다. 당신이 대화에 참여하고 있을 때, 상대방은 당신이 몇 가지 정보를 이미 알고 있다고 가정한다. 그걸 바로 '주어진(given)' 정보라고 한다. 그 다음, 화자는 당신이 이미 알고 있는 것에 새로운 정보를 추가한다. 만약 당신의 친구가 다가와서 "존과 그의 부인이 아이를 가졌어."라고 말했다면, 당신의 친구는 당신이 존을 알고 있으며 새로운 아기에 관한 사실을 모른다고 가정한 것이다. 만약 당신이 존을 모른다면(또는 동명이인이라면), 존이 누구인지 친구에게 물어봐야 할 것이다.

 

우리는 given-new convention의 도움을 항상 받는다는 사실을 모르고 산다. 왓슨 또한 이런 convention을 사용해야만 했다. 예를 들어, "Hedgehog - Podge"라는 카테고리에서 "일부 고슴도치가 무기력한(dormant) 상태에 빠지고, 서유럽 동물종이 이런 상태로 겨울을 난다."라는 질문이 있었다. 문장의 첫번째 부분은 고슴도치에 관한 부분이며(카테고리의 제목이기도 하다), 그 다음 새로운 정보가 추가된다(무기력한 상태에 빠진다).

 

다음 구절은 "서유럽 동물들"이다. 이 문장을 읽을 때 당신은 이것이 고슴도치에 관한 내용임을 알 수 있지만 왓슨이 이 문제를 해결하려면 언어적 장애물을 해결해야 한다. 이 글을 읽는 누구라도 이 구절(서유럽 동물들)이 이미 알고 있는 정보의 일부임을 알 수 있다. 우리 대화에서 말하는 '동물'은 고슴도치를 말하는 것이므로, 우리는 서유럽 종을 고슴도치와 연결시킬 수 있다. 왓슨 역시 이렇게 한다 음, 문제를 해결하기 위해 무기력한 상태(즉 동면 상태)를 지칭하는 다른 단어를 찾아야 한다(hibernation).

 

왓슨이 대단한 이유는 언어를 이렇듯 효율적으로 사용하기 때문이다.

 

다시 이 예제들로 돌아가서, 왓슨 설계자는 관련성에 관한 어려운 문제들을 잘 해결했다. 장기적으로, 이런 문제를 해결하게 되면 컴퓨터가 우리와 효율적으로 의사소통할 수 있을 것이다. 미래에는, 우리가 회사에 전화를 걸어서 컴퓨터에게 문제를 직접설명하고 그 자리에서 답을 얻는 게 가능할 것이다.



출처: Psychology today
번역: 인지심리학 매니아


고 등학교 시절, 나는 1983년 여름을 비디오 게임을 고치면서 보냈다. 나는 전자공학을 조금 아는 편이었는데, 내 집 주변에 게임 센터(video arcades. 오락실? - 역자주)는 나를 고용해서 고장난 게임을 고치게 했다. 내 주위 동료가 작은 라디오를 가지고 있어서 난 여름 내내 노래를 들어야만 했다.

내 가 하루에 두번씩이나 들었던 곡은 폴리스의 'Every Breath You Take"였다. 이 노래의 가사는 대부분 잘 들렸다("Every breath you take, every move you make..."). 그러나 그 중 한 문장이 유독 들리지 않았다. 그 문장은 내 귀에 이렇게 들렸다. "I'm a pool hall ace..." 솔직히 이 문장은 뜻이 맞지 않는다. 나는 Synchronicity(어떤 장치를 말하는지 잘 모르겠음 - 역자 주)를 카세트에 붙여서 가사를 읽을 수 있었다. 알고 보니 그 문장은 "Now my foot heart aches.'였다.



곡의 가사를 잘 이해하려면 어떻게 해야 할까?

노래가 흘러나올때 가수를 보는 것이 도움이 된다. Alexandra Jesse와 Dominic Massaro는 2010년 6월에 Psychonomic & Review에 게재한 논문에서 이 문제를 다뤘다.


우리는 말 소리 이해가 귀에서 이루어진다고 생각한다. 결국 대화는 청각을 통해 이루어지는 것이니까 말이다. 그러나, 대부분의 사람들은 대화시 상대방의 입술 움직임을 통해 정보를 얻기도 한다.


인 간이 여러가지 정보를 종합해서 말소리를 이해한다는 사실에 관한 증거가 많다. 대표적인 예가 말소리의 시각적 효과를 일컫는 맥걸크(McGurk) 효과이다. 이런 상황을 상상해보자. 우리는 어떤 사람이 특정 음절을 발음하는 소리를 듣는다.(이 사람은 '바'라고 발음하고 있다). 그와 동시에 그 사람의 입이 소리와 다른 음절을 발음하는 걸 본다(그 사람의 입은 '가'라고 발음하고 있다). 만약 우리가 소리에만 집중한다면 '바'라는 소리를 듣겠지만, 소리와 함께 입술을 같이 보게 된다면 우리는 그 중간소리인 '다'를 듣게 된다.


이 맥걸크 효과를 직접 체험하고 싶다면 아래 링크를 클릭해서 Dominic Massaro의 웹사이트를 방문하는 것도 좋을 것이다.

http://mambo.ucsc.edu/psl/dwmdir/01_5.mov





이 논문에서 연구자들은 참가자에게 에비타라는 연극에서 나오는 'Don't Cry for me Argentina'라는 곡을 동영상으로 보게 했다. 즉, 참가자들은 소리로 음악을 듣는 동시에 가수의 얼굴을 보게 되는 것이다. 과제를 조금 어렵게 하기 위해서 연구자들은 이 음악에 노이즈를 첨가하여 가사를 듣기 어렵게 만들었다. 그 결과 소리와 영상을 같이 본 조건이 영상만 보거나 소리만 들은 조건보다 가사를 더 정확하게 인식했다. 이 결과는 여러가지 의미를 지니고 있다. 이 결과는 우리가 왜 전화상에서 사람과 대화하는 게 더 어려운지 설명해 준다. 우리가 사람과 얼굴을 마주보고 대화할 때는 소리 외에 시각적인 정보를 통해서 말소리를 이해한다. 그러나 전화상에서는 오로지 청각에만 의존해야 하기 때문에 이해가 어려운 것이다.


많 은 연구들이 운전 중 휴대폰을 사용할 경우 주의가 많이 소모되어서 사고를 일으킬 확률을 증가시킨다고 설명하고 있다. 휴대폰이 보다 많은 주의를 사용하게 하는 이유는 운전자가 오로지 청각적인 단서만으로 말소리를 이해해야 하기 때문이다.


결국, 노래를 부르다가 가사를 틀리는 실수를 줄이려면 옆에 가사를 놓는 것이 최선이다.
 













출처: Scientific American
번역: 인지심리학 매니아


당신은 Greensleeves라는 노래를 잘 알 것이다. 이 노래를 잠시 흥얼거려보자. 어떤 감정을 느끼는가? (a)행복 (b)슬픔 (c)분노 (d)공포

거의 대부분은 이 노래가 슬픈 곡이라고 생각한다. 왜 그럴까? 가사의 내용 외에도, 이 노래는 단3도를 사용하여 슬픈 느낌을 전달하기 때문이다(단 3도는 17세기부터 슬픈 느낌을 전달하기 위해 사용되었다). 이는 major key가 대부분 즐거운인 반면, 마이너 키의 경우 슬프다는 서양음악의 일반적 생각과도 밀접한 관련이 있다.

음악과 감정 간 관계가 있다는 사실은 더 이상 놀라운 일이 아니다. 그러나 Emotion에 게재된 이번 논문은 음악만이 단3도를 사용하는 것은 아니라고 설명한다. 우리는 슬픔을 전달하기 위해 말에서도 단 3도를 사용한다. 슬픔에 관해서라면 음악과 인간의 말은 동일한 언어를 사용하고 있는 것이다.

Tufts University Music Cognition Lab의 Meagan Curtis는 학부생들에게 두 문장을 읽게 한 다음 이를 녹음했다. 그 중 하나는 "let's go", 다른 하나는 "come here"였다. 학생들은 이 문장들을 각각 다른 감정이 실린 억양으로 읽었다. - 화남, 행복, 즐거움, 슬픔. listen to the recordings here- 그 다음 연구자는 컴퓨터 프로그램을 이용해 음절 간 음이 어떻게 변하는지를 분석했다. 단 3도는 음정 간 일정한 거리로 정의되므로, 말소리에서 단3도를 찾아내는 것은 쉬운 일이었다. 연구자는 학생들이 슬픔을 표현할 때 단 3도를 사용한다는 사실을 알아냈다.

"사람들은 자신이 슬픔을 전달할 때 음악의 경우처럼 단 3도를 쓴다는 사실을 생각하지 못했다. 그럼에도 불구하고 인간의 말은 일정한 음정 패턴이 있다. 음악에서 슬픔을 전달하는 특징은 인간의 말에서도 동일하다"라고 Curtis는 말했다.

연구자는 학생들의 말소리에서 언어를 삭제하고 음정만 남게 했다. 따라서 'let's go'라는 문장을 두 개의 연속적인 음정으로 변화시킨 것이다. 그 다음 참가자들에게 이 소리에서 분노,행복,즐거움,슬픔 등 지각되는 감정을 평가하게 했다. 이 경우에도 학생들은 단3도의 경우 슬픔을 느꼈다.

음악과 언어가 감정을 표현하는 동일한 code를 공유하는 이유는 이 둘이 진화 과정에서 동일한 무언가로부터 갈라져 나왔기 때문이라고 Steven Brown(a cognitive neuroscientist at Simon Fraser University in Burnaby (Vancouver), British Columbia)은 설명했다. 그러나 Curtis는 이 가설이 참인지, 또는 음악과 언어 중 어떤 것이 먼저 출현했는지 현 시점에서는 밝혀낼 방법이 없다고 말했다.

또 다른 의문점은 단3도의 효과가 문화나 언어에 따라 달라질 수 있느냐는 것이다. 이전 연구들은 사람들이 자신과 다른 문화의 음악에서도 템포나 리듬을 통해 정서를 정확히 해석할 수 있음을 보여줬다.

"이 현상이 비단 영어에만 국한된 것인지, 아니면 모든 문화에 걸쳐 나타나는 것인지 궁금하다"라고 연구자는 말했다. "힌두어에서도 동일한 음정을 사용하지 않을까?"



출처: BPS Research Digest
번역: 인지심리학 매니아

당신이 말하는 동안 당신의 말을 가장 먼저 듣는 사람은 바로 '당신'이다. 그러나 사람은 말하기 전 말하려는 생각을 미리 듣지는 않는다. Falk HuettigRobert Hartsuiker이 찾아낸 이 결과는 인간의 내부 모니터링 프로세스를 이해하는 데 많은 도움을 준다.

기 존 연구자들은 인간이 특정 단어를 들은 후 그와 유사한 소리를 지닌 단어로 눈을 돌린다는 사실을 알고 있다. 48명의 독일 학생들을에게 일련의 그림을 보여주고 그 옆에 세 단어를 같이 제시한다. 학생들의 할 일은 그림 속 물체의 이름을 말하는 것이다. 연구자는 참가자가 과제를 수행하는 동안 그들의 안구 운동을 추적해봤다.

예를 들어 학생이 하트가 그려진 그림을 봤다고 가정해보자. 그 옆에 harp(하트와 소리가 흡사하다), zetel('couch'), raam('window')라는 단어가 같이 제시된다. 예상대로 학생들은 하트라고 발음한 다음 하프라는 단어로 눈을 돌렸다. 문제는 이런 현상이 기존 연구처럼 다른 사람의 말을 들은 경우보다빨리 일어나는지에 있다. 만약 우리가 말하기 전 우리 말소리를 생각 속에서 미리 듣는다면, 다른 사람의 말을 들은 경우보다 훨씬 빨리 유사한 소리의 단어를 응시할 것이다.

I실험 결과 학생들이 유사한 소리의 단어를 응시하기 까지 300ms가 소요되었다. 이는 일단 단어를 말한 다음 단어를 봤음을 의미한다. 따라서 말하기 전에 생각속에서 자신이 할 말을 미리 듣지는 않았음을 의미한다.

한 가지 분명한 점은 우리가 스스로 혼잣말을 모니터링한다는 사실이다. 예를 들어 화자는 자신의 말이 잡음으로 잘 들리지 않아도 자신이 발음을 실수했음을 알 수 있다. 이 논문은 인간이 소리를 지각하는 형태와 동일하게 내부적 모니터링을 하지 않음을 말해준다. 즉 우리는 우리 말을 생각 속에서 '듣지'는 않는다. 그럼 도대체 우리가 우리 말을 생각속에서 듣는 이유는 무엇인가? 논문의 저자들은 말의 오류를 검사하는 일이 언어 산출 체계에서 이루어진다고 말하면서도 한계점을 시사했다. '이 현상을 설명할 대안적 설명이 아직까지는 정교화되지 않았다.'

_________________________________

Huettig, F., & Hartsuiker, R. (2010). Listening to yourself is like listening to others: External, but not internal, verbal self-monitoring is based on speech perception Language and Cognitive Processes, 25 (3), 347-374 DOI: 10.1080/01690960903046926 [open access]
나는 2개 국어를 쓰는 사람들에게 경외심을 가지고 있다. 학교에서 언어를 배울 때 나는 모국어에서 다른 언어로 바꿔 말하는 일이 힘들었다. 내가 제일 잘하는 불어도 간신히 하곤 했다. 반면 레스토랑이나 지하철에서 내가 본 사람들은 두 언어를 같이 구사할 뿐더러 유창하기까지 했다. 그 사람들은 이야기를 영어로 들었지만 허를 찌르는 농담은 스페인어로 했다. 단일 언어만 쓸 수 있는 사람과 대화할 때는 재고의 여지도 없이 그 사람에 맞춰서 언어를 바꾸는 것이었다.


이 세상에 2개 국어를 쓰는 사람이 많다는 사실은 그 사람들도 우리와 별 차이 없다는 뜻일 것이다. 그들은 우리보다 연습을 조금 더 했을 뿐이고 어렸을 적부터 배웠다는 점이 다를 뿐이다. 어떤 아이들은 한 언어를 집에서 배우고 다른 언어는 학교에서 배웠을 수 있다. 또는 부모가 각기 다른 언어를 사용해서 2개 국어를 모두 배웠을 수도 있다. 그래도 단일언어 사용자와 이중언어 사용자의 차이 때문에 우리는 이 두 사람이 다른 측면에서도 다를 수 있다고 예상할 것이다.


2개국어 사용이 이익인 경우

사 실 몇몇 연구자들은 2개국어 사용자가 단일언어 사용자보다 몇 가지 과제를 훨씬 잘한다는 사실을 밝혀냈다. 그 중 한 가지가 Simon task라는 것인데, 두 물체가 스크린에 나란히 제시되는 과제를 말한다. 피험자들은 빨간 물체가 나타날 때 왼쪽 버튼을 누르고, 녹색 물체일 때 오른쪽 버튼을 눌러야 한다. 이중언어 사용자들은 버튼방향과 물체 제시방향이 다른 경우 단일언어 사용자보다 과제를 잘 수행했다(예를 들어 녹색 물체가 왼쪽에 나오고 피험자가 오른쪽 버튼을 눌러야 하는 경우)

This makes some sense -- after all, a person who speaks both English and Spanish has had a lot of practice not speaking the wrong language, which may be similar to not pressing the wrong button.


2개국어 사용이 불이익인 경우

비록 이중언어 사용자가 몇몇 과제에서 더 나은 수행을 보였지만, 못하는 과제도 있을 수 있다! 아래 동영상을 보라.




Barbara Treccani는 학생들에게 이와 유사한 영상을 보게 했다. 여기서의 과제는 O를 무시하고 x가 어디에 위치해 있는지에 따라 해당하는 버튼(각 방향별로 4개가 있다)을 누르는 것이다. 이 실험의 핵심은 O가 '부적점화(negative primes)'효과를 일으킨다는 것이다. O가 나타났던 자리에 X가 뒤이어서 나타나게 되면, 과제를 수행할 때 훨씬 헷갈린다.

첫 번째 X와 O는 전에 나타났던 글자가 없는 관계로 부적 점화 효과가 없다. 그러나 네 번째 X의 경우 O가 나타났던 자리에 나타나게 된다. 따라서 부적점화 효과가 발생한다.



연구진은 29명의 이중언어 사용자와 29명의 단일언어 사용자에게 위와 같은 영상을 보게 하고 피험자의 반응 시간과 정확도를 측정했다. 결과는 다음과 같다.



부적 점화가 없었을 때는 이중언어 사용자가 단일언어 사용자보다 적은 오류를 범했다. Simon 과제에서와 마찬가지로 이들은 부적절한 정보를 효율적으로 배제했다. 그러나 부적 점화 효과가 개입된 실험(O가 나왔던 자리에 X가 나오는)에서는 이중언어 사용자가 단일언어 사용자보다 실수를 훨씬 많이 했다. 그러나 결과가 다소 애매하다. 어떤 실험에서는 두 집단간 차이가 없었다. 또한 한 집단이 다른 집단보다 특별히 빠른 반응을 보이지도 않았다. 따라서 Simon 과제에 비해서는 다소 애매하다고 할 수 있다.


그럼에도 불구하고 이중언어 사용자가 단일언어 사용자보다 항상 인지적으로 우수한 것이 아니라는 사실이 흥미롭다. 두 개 언어를 바꿔가며 말하는 연습이 어떤 과제에서는 다른 효과를 미치는지도 모른다.

Treccani, B., Argyri, E., Sorace, A., & Sala, S. (2009). Spatial negative priming in bilingualism Psychonomic Bulletin & Review, 16 (2), 320-327 DOI: 10.3758/PBR.16.2.320

출처: Cognitive Daily
http://scienceblogs.com/cognitivedaily/2009/06/a_rare_instance_where_its_not.php

같은 내용을 책으로 읽는 것과 컴퓨터 스크린으로 읽는 것은
어느 것이 더 학습에 도움이 될까?

이러한 질문은 컴퓨터를 사용하는 사람이라면 누구나 지녔던 의문일 것이다.
그리고 그에 대한 답은 컴퓨터를 몇 살 때부터 많이 사용하게 되었는가,
그리고 요즈음 얼마나 많이 사용하고 있는가에 달려 있을 것이라고 생각할 수 있다.

그런데 최근에 노르웨이의 Stavanger 대학의 읽기연구센터에 잇는
Anne Mangen 이라는 연구자가 이에 대한 연구 결과를 발표하였다.
Journal of Research in Reading, 2008에 실린  내용을 보면

http://lesesenteret.uis.no/frontpage/news/article12534-3357.html

Journal reference:
Anne Mangen. Digital fiction reading: Haptics and immersion. Journal of Research in Reading, 2008

컴퓨터 모니터상에서 글을 읽는 것은 책으로 읽는 경우보다
뇌에 스트레스를 더 주면, 클릭, 스크롤링 등이 우리의 주의를 흩으러 놓는다고 한다.
불안을 조장한다는 것이다.
책장을 손가락으로 넘기는 것이 아니라 클릭, 스크롤링하는 것이
그리고 읽다말고 링크된 사이트를 찾아가보는 것이 (navigation)
또 글이 화면 양식에 맞지 않는 등의 요인이
우리의 심리적 과정에 방해를 일으킨다는 것이다

The digital hypertext technology and its use of multimedia
are not open to the experience of a fictional universe
where the experience consists of creating your own mental images.
The reader gets distracted by the opportunities for doing something else,

컴퓨터 스크린 상에서 글을 읽는 것은
책에 익숙하였던 사람들ㄷ에게 새로운 심적 오리엔테이션(정향)을 일으키게 하고
책의 글에서의 물리적 측면의 완전성이나 구성요소들을 놓치게 된다는 것이다.

컴퓨터 모니터에서 글을 읽는 것은
우리가 과거에 학교에 다니며 익숙하였던 물리적 환경을 변화시키는 것이며
컴퓨터의 역동적이고 계속 움직이며 임시적인 것을 학습하게 하여
이는 우리가 그 글을 기억하는 데에 잠재적 부정적 영향을 줄 수 있다
학습이란 새로운 컴퓨터 매체가 제시하지 못하는 바,
즉 시간과 심적 노력이 필요한 것이다.

그렇기에 오늘날에
ICT 테크놀로지를 강조하면서 무조건 모든 것을
유치원때부터 컴퓨터, 온라인 적으로 가야한다고 많이들 이야기하는데
이러한 이야기는 IT를 사용한 학습 상황에 대한 과학적 연구 결과에 근거하지 않은 채
그냥 테크놀로지의 장점 중심으로
몰아가려는 입장의 주장이라고 할 수 있다.

우리는 먼저 컴퓨터를 사용하여 글을 읽는 것이
유치원아동들부터 학습상황에서 무엇에 어떻게 영향을 주는지 연구할 필요가 있다

그냥 IT세대이니까 무조건 IT를 적용한 학습상황을 만들어 가여 한다는 것은
체계적이지 못하고 몰이식 사고일 수 있다.
이러한 테크놀로지에 대한 체계적 과학적 연구와 논의가 필요하다
그에 앞서 찬성-반대 식으로 몰아가서는 안 된다.

읽기란 무엇인가, 쓰기란 무엇인가, 인지적 학습이란 무엇인가에 대한
보다 심각한 고려가 필요하다.

물론 미래의 학생들은 아주 어릴때부터 책보다 컴퓨터에 더 친숙할 수가 있다.

하여간에 이 모든 경우에 관연되는 인지학습 요인들, 발달적 요인들에 대한
과학적 연구결과의 비교 평가 없이

무조건 IT시대이고 디지털시대이고, 대세가 그러니까
모든 연령의 모든 학습 상황에 컴퓨터 모니터로 글 내용을 제시하여야 한다는
식의 단순한, 몰이식 생각은 재고되어야 할 것이다

글의 유형, 주제, 필요성 등의 요인에 따라
다른 방식의 매체가 더 도움이 될 수 있다.

 

출처: 이정모의 홈페이지 http://cogpsy.skku.ac.kr/study/study.html

[아래 글은 Cognitive Daily의 기사를 번역한 것임

 위 블로그에서 자체적으로 조사한 결과임]


  2009년 5월 29일 오후 4시 16분, Dave Munger

지난 주 우리는 독자들에게 Twitter에서 흔히 볼 수 있는 문장들을 물어봤다. 우리 연구의 가정은 누군가가 당신에게 칭찬 또는 모욕을 주는지 결정하는 일이 어렵다는 것이었다. 하지만 우리는 약간 다른 의문을 가지게 되었다. : 이모티콘은 문장에 어떤 영향을 미치는가?부정적인 문장에 윙크나 스마일을 추가해서 호의적인 문장을 만들 수도 있는가?

피험자들에게 13개의 문장을 랜덤한 순서로 제시했다.

  • That's the most incisive comment I've ever seen
  • You are just so *interesting*
  • Yawn
  • You're as brilliant as you are attractive
  • I agree
  • That is teh roxxors
  • A statement like that seems like it should be obvious. Why has no one figured that out before?
  • Some people just don't understand what a wonderful person you are
  • Oh, sure. People who share your political view are *always* right
  • Wow. Just wow. That is the most amazing thing I have ever seen
  • That's absolutely ridiculous. Only a complete idiot would agree with that statement
  • Thank God you and your big mouth only have 140 characters to express your dull platitudes
  • Please, tell me more

그러나 피험자들은 각각 다른 이모티콘을 봤다. 전체 문장 중 세 문장은 스마일로 끝냈다. -- :-) 세 문장은 윙크로 끝냈다. -- ;-) 세 문장은 느낌표와 함께 제시되었고,나머지 세 문장은 어떤 이모티콘도 붙이지 않았다. 마지막으로 ( "제발, 말해봐")라는 문장은 보다 덜 사용되는 4개의 이모티콘 중 하나를 사용했다. ;-P :-( :-/:-0.

250명 이상의 피험자들이 문장-이모티콘 짝을 평가하도록 해서 1100개의 응답이 산출되었다.이모티콘이 문장이 의도한 의미에 영향을 주었을까?결과는 다음과 같았다.





위 그래프는 모든 문장에 이모티콘을 붙였을 때의 평균 평점을 나타낸다. 평가 척도는 가장 모욕적일 때가 1, 가장 듣기 좋은 말일 때 5로 구성되어 있다. 보다시피 이모티콘을 붙인 경우가 그렇지 않은 경우보다 약간 높은 평가를 받았다.심지어 느낌표조차 통제 문장보다 통계적으로 더 높은 점수를 받았고, 스마일은 매우 높은 평가를 받았다.


그러나 모든 평가들을 함께 평균하는 것은 결과를 지나치게 단순화할 수 있다.이모티콘은 다른 맥락을 지닌 문장에서 다른 의미를 지닐 수 있기 때문이다.많은 사람들이 사용하는 "윙크"는 냉소적인 뜻을 지니며, 본래 문장의 의미와 반대되는 뜻을 지니게 된다.아래 그래프는 문장이 모욕 또는 칭찬일 때 이모티콘이 미치는 영향을 나눠서 보여준다.

(여기서 "모욕적"인 문장은 이모티콘이 없을 때 평균 3점 이하인 문장이며, "칭찬" 문장은 이모티콘 없이 평균 3점 이상의 점수를 받은 문장을 말한다)

모욕적인 문장의 경우 스마일과 윙크 모두 높은 점수(칭찬)를 유도한 반면, 느낌표는 통제문장과 비교해서 별다른 차이가 없었다. 칭찬 문장의 경우, 스마일과 느낌표는 높은 점수(칭찬)를 훨씬 많이 유도한 반면, 윙크는 통제문장과 비교했을 때 별다른 차이가 없었다.

따라서 윙크나 스마일을 추가해서 부정적인 문장을 긍정적 문장으로 바꿀 수 있지만, 윙크는 긍정적인 문장의 인상을 크게 바꾸지 않았다. 스마일과 느낌표는 긍정적 문장을 더욱 긍정적으로 만들었다.

그러나 단순히 스마일이나 윙크를 모욕적인 문장에 붙인다고 해서 그 문장이 긍정적 문장으로 변하는 것은 아니다.이모티콘을 붙인 문장들의 평균 평점이 높더라도 중립적인 점수인 3보다는 여전히 낮은 점수며, 다른 긍정적인 문장들보다도 훨씬 낮은 점수였다.

많은 참가자들이 지적한 위 결과의 문제점 중 하나는 문맥없이 문장이 주어져서 이해하기가 힘들었다는 점이다.그러나 모든 피험자들이 동일하게 문맥이 주어지지 않았기 때문에 이모티콘의 효과가 이에 큰 영향을 받지는 않는다. 위 결과를 통해 얻은 교훈은, 당신과 대화하는 상대방이 당신의 의도를 파악하지 못할 때 이모티콘사용은 큰 도움이 되지 않는다는 점이다.


스마일이나 윙크 외에 다른 이모티콘이나 13번 문장("말해봐")의 결과는 다음과 같았다.

- P와 :-(ㅡㄴ 에선 별다른 차이점을 찾을 수 없었지만, :-/는 훨씬 부정적인 평가를, :-0는 훨씬 긍정적인 평가를 받았다.


출처: Cognitive Daily

http://scienceblogs.com/cognitivedaily/2009/05/casual_fridays_what_does_an_em.php

+ Recent posts