Development and Study of AI Technologies to Inexpensively Conform to Evolving Policy on Ethics
AI Development in Evolving Policy [AI DEP]
본 저장소는 과학기술정보통신부의 '사람중심인공지능핵심원천기술개발' 사업 중 “점차 강화되는 윤리 정책에 유연하게 대응하며 진화하는 인공지능 기술 개발 연구(2022~2026)” 과제에서 연구 및 개발되고 있는 윤리 정책을 반영하는 공정한 인공지능 모델과 학습법을 모아 놓은 공간입니다.
이 저장소의 인공지능 시스템은 다양한 분야에서 윤리 정책을 반영하면서 성능 저하를 최소화하도록 설계되었습니다.
또한, 변화하는 정책 반영 시 필요한 자원을 최소화하는 학습 기술을 제공하며, 실제 데이터에서의 학습과 활용을 최종 목표로 하고 있습니다.
- 채용 보조 시스템: 2종
- 추천 시스템: 3종
- 금융/신용평가 시스템: 3종
- 의료 보조 시스템: 3종
- 음성인식 시스템
- 언어 처리 시스템
- 치안 보조 자원 배분 시스템
- 광고 유형 분류 시스템
- 법률 검색 시스템
- 방송 편향성 검출 시스템
- 문화 콘텐츠 편향성 검출 시스템
해당 과제를 통해 개발된 인공지능 공정성 연구센터의 인공지능 및 데이터의 공정성을 진단하고 편향성을 교정하는 프레임워크인 MSIT AI Fair(MAF) 또한 지속적으로 아래 저장소에 업데이트 되고 있습니다.
MSIT AI Fair (MAF) https://github.com/konanaif/MAF
MAF-DEMO https://github.com/konanaif/MAF-DEMO
한국과학기술원 홍지우
📧 Email: [email protected]