<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
span.EmailStyle19
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-US link=blue vlink=purple style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal>Sometimes it can make sense to use statistical correlations.  So, when deciding where to have more police patrols it makes sense to use zip code crime data.  When dealing with an individual and deciding whether to parole that person, information about the individual seems far more relevant than information about his zip code.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><span lang=FR>Carl Lazarus<o:p></o:p></span></p><p class=MsoNormal><span lang=FR><a href="mailto:carllazarus@comcast.net"><span style='color:#0563C1'>carllazarus@comcast.net</span></a><o:p></o:p></span></p><p class=MsoNormal><span lang=FR>617-964-7241 (H)<o:p></o:p></span></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><div><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From:</b> LCTG <lctg-bounces+carllazarus=comcast.net@lists.toku.us> <b>On Behalf Of </b>Jon Dreyer<br><b>Sent:</b> Saturday, April 09, 2022 12:48 PM<br><b>To:</b> lctg@lists.toku.us<br><b>Subject:</b> Re: [Lex Computer & Tech Group/LCTG] AI bias<o:p></o:p></p></div></div><p class=MsoNormal><o:p> </o:p></p><p>Not every instance of apparent bias represents bias. John's example seems like an open-and-shut case of bias, but Jerry's may not be. Since zip codes correlate with poverty and poverty correlates with crime, it wouldn't surprise me if zip codes correlate with crime. (Probably not with amount stolen per capita!) It wouldn't surprise me at all if criminal records of relatives correlate more strongly with crime.<o:p></o:p></p><p>Whether it's ethical to use that data for a given purpose is a separate question.<o:p></o:p></p><p>-- <br>Jon "Bias Sometime" Dreyer<br><a href="http://www.passionatelycurious.com">Math tutor/Computer Science tutor</a><br><a href="http://music.jondreyer.com">Jon Dreyer Music</a><o:p></o:p></p><div><p class=MsoNormal>On 4/9/22 11:22, Jerry Harris wrote:<o:p></o:p></p></div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><p class=MsoNormal>John,  <o:p></o:p></p><div><p class=MsoNormal>You might find the book by Cathy O'Neil, "Weapons of Math Destruction," interesting since it contains more examples in the same vein as the article. The author attended Lexington High School and gave a talk about her book at Follen Church several years ago. Stories such as an algorithm that uses data like zip code and criminal records of relatives to calculate a prisoner's likelihood to commit another crime if released on parole, etc. <o:p></o:p></p></div><div><p class=MsoNormal>    <a href="https://www.amazon.com/Weapons-Math-Destruction-Increases-Inequality/dp/0553418815">https://www.amazon.com/Weapons-Math-Destruction-Increases-Inequality/dp/0553418815</a><o:p></o:p></p></div><div><p class=MsoNormal><o:p> </o:p></p></div><div><p class=MsoNormal>Jerry<o:p></o:p></p></div></div><p class=MsoNormal><o:p> </o:p></p><div><div><p class=MsoNormal>On Sat, Apr 9, 2022 at 10:47 AM john rudy <<a href="mailto:jjrudy1@comcast.net">jjrudy1@comcast.net</a>> wrote:<o:p></o:p></p></div><blockquote style='border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;margin-left:4.8pt;margin-right:0in'><div><div><p class=MsoNormal style='mso-margin-top-alt:auto;mso-margin-bottom-alt:auto'><span style='font-size:12.0pt;font-family:"Arial",sans-serif'>I am taking an AI course and a major issue is the bias build into some AI systems.  If, for example, you pick new hires from those who were successful in the past you’ll mostly hire white males because those were who you mostly had in the past.  Here is a fascinating article from the course</span><o:p></o:p></p><p class=MsoNormal style='mso-margin-top-alt:auto;mso-margin-bottom-alt:auto'><span style='font-size:12.0pt;font-family:"Arial",sans-serif'><a href="https://www.wired.com/story/excerpt-from-automating-inequality/" target="_blank">https://www.wired.com/story/excerpt-from-automating-inequality/</a></span><o:p></o:p></p></div></div></blockquote></div></blockquote></div></body></html>