Generative AI/Foundation Model

Trustworthy AI(신뢰할 수 있는 AI), AI Ethics(AI 윤리)

데이터 세상 2023. 8. 4. 00:16

Trustworthy AI (신뢰할 수 있는 AI)

AI가 의도한 대로 작동하고 규정을 준수하는지 확인하기 위해 AI를 지시하고 모니터링할 수 있어야 합니다.

관리되는 데이터 및 AI는 데이터 및 AI 솔루션의 신뢰성을 모니터링하고 유지하는 기술, 도구 및 프로세스를 나타냅니다.

신뢰할 수 있는 AI는 다음의 5가지 항목을 포함하고 있어야 합니다.

 

Transparency (투명성)

투명성은 신뢰를 강화하며 투명성을 높이는 가장 좋은 방법은 공개입니다. 

AI 솔루션이 윤리적이 되려면 투명성도 필요합니다. 

그것은 AI 기술을 쉽게 검사할 수 있게 하고 AI 솔루션에 사용되는 알고리즘이 숨겨져 있거나 더 자세히 볼 수 없다는 것을 의미합니다.

 

Explainability (설명가능성)

투명성은 사용 중인 AI 기술 및 알고리즘에 대한 보기를 제공하지만 AI가 사용되는 방식에 대한 간단하고 직접적인 설명이 필요합니다. 

사람들은 특히 이러한 결론이 고용 가능성, 신용 가치 또는 잠재력에 대한 결정에 영향을 미치는 경우 AI가 결론에 도달한 방법을 이해할 권리가 있습니다. 

 

Fairness (공정성)

AI 솔루션의 공정성은 인간의 편견을 줄이고 개인 및 개인 그룹을 공평하게 대우하는 것을 의미합니다. 

공정하도록 설계된 AI 솔루션은 그대로 유지되어야 합니다. 

솔루션에 편견이 스며드는 것을 방지하려면 모니터링 및 안전 장치가 중요합니다.

 

Robustness (견고성)

AI가 계속해서 인간 경험의 일부가 되면서 공격에 더욱 취약해지고 있습니다. 

신뢰할 수 있는 것으로 간주되려면 AI 솔루션이 예외적인 조건을 효과적으로 처리하고 보안 위험을 최소화할 수 있을 만큼 충분히 견고해야 합니다. 

AI는 공격을 견뎌내고 공격을 받는 동안 무결성을 유지할 수 있어야 합니다.

 

Privacy

신뢰할 수 있으려면 AI는 원시 데이터뿐만 아니라 해당 데이터에서 얻은 통찰력의 모든 단계에서 프라이버시를 보장해야 합니다. 

데이터는 인간 제작자의 소유이며 AI는 최고의 무결성으로 개인 정보를 보장해야 합니다.

 


References

반응형

'Generative AI > Foundation Model' 카테고리의 다른 글

[Generative AI] Foundation Model 이란  (0) 2023.06.08