Advertensie-resensie - Shaip

Wat is Bias AI en hoe om Bias AI in Conversational KI uit te skakel?

Vatsal Ghiya, uitvoerende hoof en medestigter van Shaip, het 20 jaar ondervinding in gesondheidsorg-KI-sagteware en -dienste en wat op-aanvraag-skaal van besigheidsprosesse moontlik maak met masjienleer en KI-inisiatiewe. Hierdie gaskenmerk, Vatsal Ghiya, het sleutelinsigte gedeel oor hoe om vooroordeel in Conversational KI uit te skakel.

Die sleutel wegneemete van die artikel is-

  • Volgens statiese inligting is die akkuraatheidsyfer van die haal van resultate deur stemsoektog op Amerikaanse mans 92%, maar dit daal na 79% en 69% vir wit Amerikaanse vroue en gemengde Amerikaanse vroue. Dit is een klassieke voorbeeld van Bias AI.
  • Sommige werklike voorbeelde van die vooroordeel KI sluit Amazon en Facebook in waar mans meer bevoordeel is tydens werwing in Amazon en Facebook teiken die kliënt volgens hul geslag, kleur en godsdiens. Hierdie vooroordeel in KI word deur drie redes veroorsaak en dit is data, mense en tegnologie.
  • Om die vooroordeel van KI van enige toepassing en stelsel uit te skakel, kan organisasies die maatreëls volg, soos om die databronne en kwaliteit te sertifiseer, die model intyds te monitor en die diversiteit van data te ontleed voordat KI in hul bedrywighede gebruik word.

Lees die volledige artikel hier:

https://www.theadreview.com/meet-vatsal-ghiya/

Sosiale Deel

Kom ons bespreek u vereiste vir AI -opleidingsdata vandag.