정말 1년 모든 시간을 갈아넣은 캡스톤 졸업작품이었다.
아쉽게도 ICT 멘토링에서는 수상하지 못했지만
거기서 멈추지 않고 계속 프로젝트를 발전시킨 덕에
우리 팀이 캡스톤 졸업작품 1위 대상을 타게 되었다.
그리고 이 프로젝트를 WomenInAI라는 호주 단체에서 개최했던
AI4HER APAC Conference에서 발표하게 되었다.
시간을 정말 많이 갈아넣었기 때문에 우리 팀이 1위가 되리라고 확신할 수 있었다.
초반에는 이 프로젝트를 잘 마칠 수 있을까 걱정되기도 하고
이게 맞는 방향인지 고민이 될 때도 많았지만,
결과적으로도 과정적으로도 프로젝트를 잘 마칠 수 있게 되어 다행이다.
3월부터 11월 말 2차 심사일까지 정말 쉬지않고 달렸다.
지피티한테 회고록 쓰는 법을 물어보기도 하고 다른 사람 회고록들을 보긴 했는데
그냥 내가 쓰고 싶은대로 회고록을 쓰기로 했다.
내가 했던 역할은 내가 잘 아니까 내 역할 그 위주로 쓸 것이다.
울 팀의 깃허브이다.
https://github.com/diaperi/CONCAT_SOLVER/blob/main/README.md
귀여운 우리 로봇..
디자인 예쁘게 하고 싶었지만 예산적인 부분이나 디자인적인 감각이나
그런게 부족했다.
우리 팀은?
팀원 1 나 (팀장) : 웹개발, 통합 및 형상 관리, 갈등&감정 분석 및 해결책 도출 기기 개발,
DB, 표정 이미지/음성 톤 기반 감정인식모델 개발
팀원 2 : 웹 및 로고 디자인
팀원 3 : 웹개발, 텍스트 단어 기반 감정인식모델 개발, DB
팀원 4 : 웹개발
팀원 5 : 풀스택, 객체 감지 장애물 회피 주행 기기 개발
이렇게 진행했다.
우리 팀의 프로젝트 주제는 무엇일까?
본 프로젝트는, 음성과 표정 및 텍스트 감정 기반 멀티 감정 인식 모델,
ChatGPT 그리고 AI 비디오의 3가지 인공지능 기술을
종합적으로 활용하여 가정 내에서 발생하는
갈등 상황을 실시간으로 감지하고,
이를 분석하여 사용자에게 갈등을 해소할 수 있는 해결 방법을 제공한다.
최종적으로 프로젝트는 다양한 인공지능 기술과
이미지, 영상, 오디오 처리 기술 그리고 주행 기술을 통해
사용자에게 갈등 해결 방법을 제공하여
가정 내 관계를 개선시키는 것을 목표로 한다.
기기를 통해 주행과 갈등/감정 모니터링, 감지 및 해결책 도출을 하고
웹을 통하여 갈등에 대한 해결책 제공을 한다.
갈등에 대한 해결 방법은 2가지로 제공한다.
하나는 AI 비디오, 또 하나는 텍스트.
AI 비디오는 종합적으로 갈등 상황을 요약한 내용과 전체적인 해결 방법을 설명한다.
텍스트는 갈등 참여자별로 섹션이 생성되어, 참여자별 맞춤형 자세한 행동 가이드를 제공한다.
이 주제는 내가 낸 아이디어였는데
1. 가족과 관련된 프로젝트를 하고 싶었다.
2. 인공지능 기술을 활용하고 싶었다.
3. 최대한 창의적인 프로젝트를 하고 싶었다.
갈등을 해결하기 위해선?
1. 갈등 상황을 파악해야 한다.
2. 공감과 신뢰를 조성해야 한다.
3. 갈등의 원인을 명확히 해야 한다.
4. 합의된 규칙을 설정해야 한다.
5. 해결책을 도출해야 한다.
6. 실행 계획과 후속 조치가 있어야 한다.
7. 반성 및 학습이 필요하다.
이러한 목록들을 정했다.
이제 이 방법들을 사람이 아닌 로봇이 실행할 수 있도록 노력했다.
우리 프로젝트는 기존 홈캠 기능에서 더 나아가
"갈등 감지 및 해결 방법 제공" 이라는 키워드가 더해진 것이다.
정말 많은 새로운 시도와 경험, 많은 문제와 고민의 시간 ...
정말 많은 새로운 시도를 했다..
라즈베리파이 등 센서 연결부터, 웹 개발, AWS의 사용 그리고
인공지능 모델을 직접 제작해 보는 등
한번도 경험해보지 못한 활동들을 이번 캡스톤 졸업작품을 통해 시도할 수 있었다.
내가 거의 모든 장비를 알아보고 주문했다.
감정/갈등 인식 및 해결책 도출 기기를 만들기 위해
라즈베리파이5와 로지텍 웹캠을 구입했다.
5와 규격이 맞는 충전기, 배터리 등등도 구입했다.
객체(사람)감지 및 장애물 회피 주행 기기를 만들기 위해
원래는 선을 따라가는 용도의 자율주행 키트와 라이다센서,
객체 감지용 웹캠, 라즈베리파이4에 맞는 샤오미 보조배터리까지...
그리고 처음에는 AWS RDS를 우리 회원 관리용으로 썼는데
멘토링이 끝나고 지원금 지급이 끝나서 이건 윤아가
수파베이스?의 PostgreSQL로 변경했다.
빨리 알아보고 변경해줘서 고마웠다.
또한 이번에는 새로운 목적으로 AWS를 사용했다.
AWS S3를 데이터 저장용으로 썼는데 좋은 선택이었다.
영상부터 이미지, 텍스트 파일까지 자유롭게 뺐다가 넣을 수 있고
로그인을 하면 자동으로 S3에 회원 id 이름으로 폴더가 생성되게 하고
웹으로 꺼내올 때는 로그인 된 사용자의 id값에 일치하는
폴더의 데이터를 가져오면 되니까 편하게 가져올 수 있었다.
무엇보다 가장 중요했던 것은 감정인식모델 개발이었다.
이건 정말 막막했다.
수업시간에는 정말 기초적인 부분만 배웠기 때문에
감정인식모델을 생성하고 학습시키기 위한 정말 많은 블로그와 논문들을 봤다.
물론 많은 블로그 글들과 GPT를 활용하였기 때문에 완전히 코드들을 이해하지 못한다.
하지만,
1.데이터 수집/전처리,
2. 모델 설계,
3. 모델 학습,
4. 모델 평가/예측 의 단계들에서 전반적으로 어떤 식으로 접근하는건지,
어떤 식으로 모델이 생성되고 학습되는건지 알게 되었다.
수업 시간에 배운 이 단계가 직접 쓰이니까 흥미로웠다.
원래는 표정 기반 감정 인식 모델만 생성하고 끝내려고 했었다.
결국은 원래 계획했던 대로 음성 톤 멜 스펙트로그램 기반 감정인식모델 그리고
텍스트 단어 감정인식모델까지 제작하게 되었다.
교수님께서 캡스톤 수업시간에 표정만으로 갈등을 판단하는 것은 너무
적다고 하셔서 3가지 모델을 활용한 멀티 모달 감정인식으로 갈등 파악을 하게 되었다.
AI4HER APAC Conference에서 프로젝트를 발표하면서 만들었던 ppt 자료이다.
갈등 상황인지 어떻게 파악할까?
먼저, 실시간으로 카메라 모니터링을 통해 표정 기반 감정 인식 로그를 수집한다.
(이 실시간 영상은 웹을 통해 실시간으로 송출된다.)
6가지 감정 중 슬픔, 화남, 공포의 부정적인 감정이
나머지 보통, 행복, 놀람의 긍정적인 감정의 개수보다 과반수라면 "갈등 인식".
영상이 mp4로 다 녹화, 결합되면,
음성 파일만을 따로 추출해서 네이버 클로바 스피치 api를 통해 STT와 화자분리를 시킨다.
이 대화 내용 데이터를 기반으로 텍스트 단어 감정인식 모델을 적용시킨다.
텍스트 단어 감정인식모델은 부정과 감정 2가지를 나눌 수 있기 때문에
대화 내용에 따른 부정과 긍정 개수를 기록한다.
부정 개수가 더 많으면 "갈등 인식".
mp4 파일에서 음성 wav 파일을 따로 추출해서
음성 톤 멜 스펙트로그램 감정 인식 모델을 적용시킨다.
오디오 파일 길이에서 각 구간을 일정하게 분리하여
약 몇 초만큼의 멜 스펙트로그램 이미지를 각각 생성한다.
그 멜 스펙트로그램 이미지에 모델을 적용시켜 어떤 감정인지 판별한다.
이것도 똑같이 6가지 감정 중 부정적, 긍정적 감정의 개수를 파악하고
부정적 감정의 개수가 과반이면 "갈등 인식".
최종적으로, "갈등 인식"으로 나온 결과값이 2개 이상이면 "갈등 상황"이라고 인지하게 했다.
"갈등 상황" 이라고 인지하게 되면 미리 생성되어 있던 갈등 해결방법에 대한
문자 알림 메시지가 전송되고 AI 비디오가 생성되게 된다.
(원래 미리 갈등 해결 방법이 생성되면 안되지만,
"갈등 상황"임을 인식하는 나머지 모델 2개를 프로젝트 후반부에 만들게 되면서
미리 갈등 해결방법을 생성하고 갈등 상황이 아닐 시엔
해당 저장된 영상과 이미지를 삭제하여 해결 방법 페이지에 접근할 수 없게 했다.)
이렇게 해서 갈등 상황인지 즉각적으로 파악하여 해결책이 제공되게 한다.
그럼 AI 비디오는 어떻게 생성될까?
원래 AI비디오를 생성할 계획은 아예 없었다.
이것도 교수님께서 텍스트로만 해결 방법을 보여주는건 정말 비효율적이라고
당장 바꾸라 해서 일주일만에 추가하게 된 것이다.
교수님께서 "영상" 이야기를 하셔서 AI 영상이 갈등 해결 방법을 설명해주면 좋겠다고 생각해
aI 영상 플랫폼들을 찾아보게 되었다.
수많은 영상 플랫폼들 중에서 Vidnoz AI가 제일 괜찮아보였다.
Vidnoz AI는 많은 ai 아바타를 통해 영상을 만들 수 있는 플랫폼이다.
그런데 문제점이 개발용 api를 제공하지 않는다는 거였다.
심지어 무료 플랜은 하루당 3분까지의 영상을 제작할 수 있다.
다른 대체 플랫폼은 사용하기 싫고, 여기서는 개발용 api를 제공하지 않기 때문에
한땀한땀 자동으로 영상이 생성되게 했다.
파이썬을 사용했다. 정말 노가다 수작업이다.
코딩을 모르는 사람에게 처음 설명하는 그 유명한 말처럼
하나하나 동작을 자세히 주문했다.
1. 내 구글 계정으로 구글에 로그인할 수 있게 한다.
(게스트 모드로 웹이 자동으로 켜지면 구글 계정에 로그인할 수 있도록,
구글 계정을 입력하고 로그인 버튼을 누르도록 시킨다.
물론 이 모든 과정은 화면에 노출되면 안된다.)
2. 로그인 한 구글 계정을 user 캐시로 만들게 해서 다음에는 이 캐시폴더만을 가지고
자동으로 로그인이 되게 한다.
3. 이전에 미리 제작하고 싶은 ai 아바타를 골라서 그 아바타 링크를 사용하게 한다.
나는 그나마 동양적인 캐릭터를 골랐다.
4. user 캐시 폴더를 미리 생성해놓았기 때문에 그 아바타 링크에 들어가면 구글 계정 버튼을 눌러서 내 계정으로 로그인 시킨다.
5. 플랫폼에 로그인이 되면 내가 미리 선택해놓았던 링크로 돌아가는데
여기 텍스트 입력창에 s3에 미리 저장되어 있는 해결방법 텍스트 파일 중
"종합적인 해결방법" 부분만을 따와서 넣는다.
이 S3 폴더에서는 몇초마다 폴더를 검사하면서 새로운 파일이 생길 경우 그 파일을 가져온다.
6. 해당 텍스트 구간이 입력되었으면, 이제 캐릭터 설정을 한다.
'영어'로 되어있던 드롭박스를 클릭하여 '한국어'로 바꾸고,
사람 이름을 골라 목소리 톤을 결정한다.
마지막에는 '생성' 버튼을 눌러 영상을 생성한다.
7. 영상이 생성되기까지 좀 시간이 걸린다.
영상이 생성되면 해상도(무료) 선택하고 다운로드 버튼을 선택한다.
8. 이제 다운로드 된 영상을 s3 aivideo 폴더에 가져왔던 해결 방법 파일과 동일한 이름으로
저장하고 웹에서 해당 이름의 파일을 꺼내와서 보여주면 끝!
이렇게 노가다로 한적은 처음이다.
그런데 그냥 이런 방법도 있구나... 하면서 시간이 일주일밖에 남지 않았기 때문에
어찌저찌 ai 아바타가 설명하는 종합적인 해결 방법 영상을 생성했다.
이 영상은 교수님께서 좋아하셨다.
GPT를 활용하여 해결책을 도출하게 했다.
GPT 4o 모델을 사용했다.
확실히 예전 모델보다 말이 자연스럽고 잘 나온다.
파인튜닝을 해보고 싶었는데 못했고,
gpt api를 통해 직접 요청을 하는 방식으로 했다.
여기서 실시간 표정 감정인식과 avi/wav파일의 결합의 mp4파일 생성,
녹화, 송출, stt, 화자분리, 감정매칭대화내용 파일 생성,
aws s3로의 저장, 그리고 gpt 해결책 요청까지
라즈베리파이 안에 있는 파이썬 파일에서 수행된다.
난 분리하여 실행하는 방법을 몰랐기 때문에 이 모든 작업을 한번에
수행하기 위해서 1000줄에 가까운 코드를 생성하게 되었다.
gpt에게 적절한 해결책을 반환받기 위해서 긴.. 문장으로 요청을 했다.
이렇게 쓰는게 맞나싶다.ㅋㅋㅋ
다음엔 더 깔끔한 방식으로 사용해보고 싶다.
def generate_gpt_response(dialogue):
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {openai.api_key}"
}
payload = {
"model": "gpt-4o", # GPT-4 모델 지정
"messages": [
{"role": "system", "content": "당신은 매우 세심하고 도움이 되는 조수입니다. 당신은 감정적으로 민감한 상황에서 사람들에게 도움을 줄 수 있는 전문가입니다."},
{"role": "user", "content": dialogue},
{"role": "user", "content": """
위 대화 내용을 바탕으로, 갈등을 겪고 있는 가족과 당사자에게 맞춤형 조언을 제공해줘요. 대화에서 드러난 감정과 상황에 맞춰서 조언을 구성해줘요.
예시는 참고만 하고, 대화 내용에 가장 적합한 해결책을 제공하는 데 중점을 두고 작성해줘요.
조언을 제공할 때는 다음 요소들을 자연스럽게 통합해서 평문으로 작성해줘요:
(1) 갈등에 대한 종합적인 자세한 갈등 해결 방법
(2) 갈등에 대한 참여자별 실질적, 구체적인 자세한 행동 계획 해결책 제안.
(감정 분석에 따른 참여자별 공감, 갈등의 원인 분석, 참여자별 과실(잘못) 퍼센트 비율 판단과 설명,
각각 참여자별 솔루션 내용이 들어가야해.)
솔루션 내용은 각 참여자가 해야 할 행동이나 대화의 구체적인 예시를 제시해줘.
그리고 각자의 역할을 명확히 하고, 상대방에게 전달할 구체적인 대화 표현도 포함해줘.
마지막으로 갈등이 해결된 이후에도 관계를 긍정적으로 유지할 수 있도록 방안을 포함해줘.
이 모든 요소들을 반영하되, 평문으로 자연스럽게 연결하여 작성해줘.
단계 번호를 사용하지 않고, 부드럽게 이어지는 조언을 제공해줘.
맨 첫 줄에 대화 내용을 요약한 제목을 < > 안에 넣어줘.
해결책 제안을 평문으로 작성해줘요. "~습니다" 대신 "~요" 체로 써줘.
먼저 제목 다음으로 종합적인 갈등 해결 방법입니다. 하고 예시를 들면서 갈등에 대한 자세한 총체적인 해결 방법을 써줘.
이 내용은 4문장 정도로 짧게 해줘. 종합적인 갈등 해결 방법에는 너가 생각하는 실질적인 좋은 해결 방법을 예시를 들어서 추천해줘.
2번 문항의 참여자 별로 해결책 제안을 할 때는 먼저 "참여자 1에 대한 솔루션 입니다." 출력 후 각각 최대한 섬세하고 자세하게 솔루션을 써줘.
참여자별 솔루션 내용에는 감정 분석에 따른 참여자별 공감, 갈등의 원인 분석, 참여자별 과실(잘못) 퍼센트 비율 판단과 설명,
솔루션 내용은 각 참여자가 해야 할 행동이나 대화의 구체적인 예시를 제시해줘.
그리고 각자의 역할을 명확히 하고, 상대방에게 전달할 구체적인 대화 표현도 포함해줘.
마지막으로 갈등이 해결된 이후에도 관계를 긍정적으로 유지할 수 있도록 방안을 포함해줘.
총 출력되는 문단은 종합적인 갈등 해결 한문단, 참여자 숫자대로 따로따로 생성되는 솔루션 문단들만 있어야 해. 다른 문단은 쓰지마.
해결책을 제안할 때, 1️⃣, 2️⃣ 이러한 이모티콘을 사용해서 가독성이 좋게 해줘.
1000자 정도 참여자별 솔루션의 내용을 중심으로 자세하게 써줘.
"""}
],
"max_tokens": 1200,
"temperature": 0.7
}
여기서 dialogue는 수집된 감정 로그와 대화 내용으로 만들어진 감정매칭 화자분리대화내용이다.
암튼.. 이렇게 해결책을 생성해서 S3 해당 id의 gpt 폴더에 넣게 된다.
정말..모든게 쉽지 않았다.
내가 라즈베리파이를 만지게 되면서 중점적인 부분을
거의 나 혼자 맡게 되었다.
같이 할 수도 없었던게 라즈베리파이는 1개고 1명이 가져가서 만드는게 효율적이었기 때문이다.
방학동안 매일같이 학교에 출석하고 아침부터 밤까지 몇개월간 노력한 끝에 완성하게 되었다.
사람들의 감정과 갈등을 실시간으로 감지하여
해당 갈등 내용에 대한 갈등을 해소할 수 있는
해결방법을 준다는 "ai 오은영 박사님" 같은 프로젝트를 했다.
말로는 간단해보이는데 정말 많은 시행착오와 로직 구상이 있었다.
특히, 누가 무엇을 말했고 누가 무슨 비언어적 감정을 가지고 있는지 알 수 있는
감정매칭대화내용파일을 만들고 싶은데 도대체 여러 사람들과
그저 줄줄 나온 감정들을 어떻게 매칭시킬지 몇주는 고민했다.
이미 그런 api가 존재할 수 도 있지만 난 못찾았기 때문에 내 방식대로 했다.
계속 찾아보던 중 "타임스탬프"라는 용어가 눈에 띄었고,
모든 감정로그에 시작 0부터의 시간 로그를 찍었다.
stt 화자분리된 대화내용에도 로그를 찍었다.
그리고 원래 표정 인식만 되던 카메라 화면에 "입 열림" 감지도 넣었다.
입이 열리는 시간의 감정 로그를 찍고, 입이 닫히는 시간의 감정 로그를 찍었다.
입이 열리고 닫히는 시간 동안의 대화 내용과
입이 열리고 닫히는 동안의 감정 로그 시간의 일치하는 부분을 매칭시켰다.
라즈베리파이 성능 때문에 차이가 있지만 그런대로
누가 무엇을 말했고 옆에 무슨 감정이 있는채로 말했는지 대화 내용 파일을 만들 수 있었다.
그리고 이 음성 톤 멜 스펙트로그램 감정인식모델 만드는거... 오래걸렸다.
팀원 중 한명이 해보다가 못하겠다 해서 내가 새로 해보겠다한건데,
AI hub에서 받은 데이터가 오디오 데이터가
'슬픔'데이터만 엄청 많았기 때문에 다른 데이터들을 슬픔 데이터에 맞게 오버샘플링도 해보고
가중치도 적용하고 별짓을 다했다.
무료 코랩을 사용하기 때문에 런타임도 자주 끊어지고 용량도 작아서
내 원래 구글 계정 말고 비어있는 부계에서 생성했다.
지금은 그 계정 구글 드라이브 용량이 97퍼인가 차지하고 있다.
그 오디오 데이터들을 모두 멜 스펙트로그램 이미지로 변환시켜야 한다.
이 이미지와 해당 오디오 파일에 라벨링된 감정 csv파일 가지고 모델을 학습시키는건데,
런타임이 끊어질때마다 또 변환시키기 오래걸리기 때문에 미리 저장해놓고 불러와야한다.
간단해 보이는데 데이터 전처리부터 너무 오래 걸렸다.
어쨌든, 데이터의 불균형 때문에 너무 오래 걸린거라
슬픔 이외의 다른 감정 데이터에 가중치를 적용하여
슬픔 데이터만 너무 잘 학습되고 다른 감정들은 학습이 되지 않는 문제를 해결했다.
그리고 우리가 학과에서 대상을 받은 이유는 ?
1. 두가지 목적의 하드웨어를 사용했다.
2. 인공지능 기술을 사용했다.
3. 웹을 디테일하게 사용했다.
4. 이 모든 것을 통합했다.
5. 인공지능 모델 3가지를 직접 제작했다.
6. 제작하고 단순히 적용에 그친 것이 아니라 3단계에 걸친 인공지능 기술을 활용했다.
7. 그 중간중간에 또다른 디테일한 기술들과 작용들이 끼어 있다.
이어서 인것 같다.
나는 하드웨어부터 DB, 웹, 인공지능 모델, GPT, 그리고 git 관리까지
모든 것을 다루고 관리했다.
팀장으로써 친구들과 같이 팀플한다는 것도 정말 쉽지 않았다.
역할 배분부터 프로젝트 초반 설정까지 정말 모든 로직을 구상, 설계하고
개발에 들어가야 편하게 할 수 있겠다.
초반에 쓸데없는 라인트레이서 자율주행 기기를 만들고 테스트 하는 과정에서
시간을 많이 뺏겼고,
소리를 추적하겠다는 꿈을 갖고 거기에 시간을 썼던 적도 있다.
무슨 기능이든 다 대충 전반적으로 구상하고 들어가야겠다.
정말 백지에서 이게 되겠지? 하고 들어가서 더욱 힘들었다.
되긴 됐지만 앞으론 더 많은 생각을 하고 들어갈 것이다.
올해... ⛅
다사다난한 1년 프로젝트를 보낸 것 같다.
방학 중 학교 편의점 VIP가 된 것 같고 배달 음식도 정말 많이 먹었다.
재미도 있었다.
팀원들과 같이 모여서 웃고 떠들고 프로젝트에 대해 논의하고 만들어가는 과정은
그땐 좀 힘들었지만 돌이켜 생각해보니 활기차고 재미있었던 것 같다.
딱 대학생때만 할 수 있는 활동을 했다.
언제 또 친구들과 웃으면서 1년치 프로젝트를 해보겠나.
작년 겨울방학 때 같이 팀원들과 미리 강의를 보면서 스프링부트로 작게 웹을 제작해본 경험이 좀 도움이 됐던 것 같다.
몇개월간 정말 몰입하여 프로젝트를 한 경험은 소중하다.
몇개월간 이 문제를 어떻게 해결해야할지 머리를 싸매며 하루 종일 고민했다.
또 나는 그렇다 할 "성공 경험" 이 없는 사람이었기 때문에 이번 프로젝트가 의미 있는 것 같다.
특히, 이번에 팀장을 맡았기 때문에 더 의미가 있다.
앞으로 취준을 위해 해야할 것들이 정말 많지만,
그 당시 얼마나 열심히 했는지를 생각하며 똑같이 열심히 하려 노력해야겠다.
좀 내가 만족하고 괜찮은 성과를 얻을려면 그러한 노력이 있어야 한다는 것을 배웠다.
나는 다른 사람들보다 부족한 점이 많기 때문에😭😭😭 훨씬 더 많이 노력해야 한다.
목표를 정하고, 그 목표에 대한 세부 목표들을 정하고,
그 세부 목표들을 하나하나 해결하고 달성해가며 노력해야 한다.
엉덩이를 붙이고 시간을 갈아넣어야 한다.
결과적으로 만드는 과정이 너무 커지고 많은 것을 통합하고
많은 것을 만진 탓에 벅찰 때도 있었지만 또 새로운 시도를 해보고
괜찮은 성과를 거두었다는 보람찬 경험이었다.
졸업작품전 1위도 하고 졸업작품을 이용해서 컨퍼런스에서 발표까지 하고!
또 교수님께서 논문도 쓰자고 하셨다..
'캡스톤 졸업작품 & ICT멘토링(프로보노) > 일지' 카테고리의 다른 글
(Women in AI) AI4HER APAC Conference 에서 발표한 회고 (3) | 2024.12.19 |
---|---|
그동안의 캡스톤 졸업작품 회고 (4) | 2024.10.11 |
그동안의 프로보노 ICT 멘토링 (1) | 2024.09.29 |
그동안의 진행 과정 (0) | 2024.07.16 |