随着人工智能的快速发展, 人工智能使用的监管已成为巴西一个中心和紧迫的话题. 新技术带来了巨大的潜力,可以创新和转变多个行业, 但也提出了关于伦理的关键问题, 透明度与治理. 在巴西的背景下, 数字化转型以加速的步伐推进, 在创新与适当监管之间找到平衡对于确保人工智能的可持续和负责任的发展至关重要
独家采访, 萨米尔·卡拉姆, Performa_IT的首席运营官, 提供了对人工智能监管中出现的挑战和解决方案的深入分析, 强调技术领域创新与伦理之间平衡的重要性
巴西的人工智能监管仍处于结构化阶段, 这带来了既有挑战又有机遇. “一方面, 法规为负责任地使用技术制定了更明确的指导方针, 确保透明和伦理等原则. 另一方面, 存在过度官僚化的风险, 什么可以减缓创新. “在全球竞争中,监管与创新自由之间的平衡对巴西保持竞争力至关重要”,开始萨米尔·卡拉姆, Performa_IT的首席运营官 – 公司全方位服务提供商技术解决方案, 数字化转型和人工智能的参考
影子人工智能和深度伪造风险与解决方案
萨米尔·卡拉姆讨论的最令人担忧的概念之一是“影子人工智能, 指的是在组织内部使用人工智能而没有适当的控制或监督. 这种做法可能导致多个问题, 数据泄露, 偏见决策和安全风险
例如, 想象一个营销团队在没有IT部门批准的情况下使用AI工具分析消费者行为遵守. 此外,还使公司面临法律风险, 对这种技术的非规范使用可能导致对敏感数据的不当收集和分析, 侵犯用户隐私
另一个场景是开发用于招聘决策的人工智能算法, 在没有适当监督的情况下,可能会重现训练数据中存在的无意识偏见, 导致不公正和歧视性的决定
就像深度伪造的情况一样, 在哪里视频或音频使用人工智能来处理图像, 一个人的声音和动作, 让人觉得说或做某事, 实际上, 从未发生过. 这项技术可以被恶意使用来传播虚假信息, 欺诈身份并损害个人声誉
解决方案为影子人工智能和深度伪造致力于制定强有力的人工智能治理政策, 根据萨米尔·卡拉姆, Performa_IT的首席运营官
这些政策包括实施频繁的审计, 为了确保人工智能实践与组织的伦理和透明度指导方针保持一致. 此外, 使用能够检测未经授权活动并持续监控人工智能系统的工具是至关重要的,以防止滥用并确保数据安全.”
萨米尔强调说, 没有这些措施, 不受控制的人工智能使用可能不仅会损害消费者的信任, 但也会使组织面临严重的法律和声誉后果
假新闻人工智能中的伦理挑战
传播假新闻由人工智能生成的内容是另一个日益关注的问题. “这对抗由人工智能生成的假新闻需要技术和教育的结合自动化验证工具, 在图像和文本中识别合成模式, 除了对人工智能生成内容的标记, 是重要的步骤. 但也我们需要投资于公众意识的提升, 教导识别可靠来源和质疑可疑内容 萨米尔说
确保人工智能开发的透明度和伦理是萨米尔所倡导的支柱之一. 他强调说“一些最佳实践包括采用可解释模型(XAI – 可解释的人工智能, 独立审计, 使用多样化的数据以避免偏见和建立人工智能伦理委员会.”
与人工智能相关的主要网络安全担忧之一包括复杂攻击, 如同网络钓鱼 – 一种攻击技术,罪犯试图欺骗个人以揭示机密信息, 如密码和银行数据, 冒充可信实体进行数字通信. 这些攻击在与人工智能结合时可能变得更加复杂, 创建个性化的电子邮件和消息,难以与真实的区分. 为了减轻这些风险, 萨米尔建议“é基础投资于基于人工智能的检测解决方案, 实施多因素身份验证,并确保人工智能模型经过训练以检测和减轻操控尝试.”
有效的人工智能政策合作
企业之间的合作, 政府和学术界对制定有效的人工智能政策至关重要. 萨米尔强调说“人工智能影响多个行业, 因此,监管需要以协作的方式构建. 企业带来了技术应用的实际视角, 政府制定安全和隐私指导方针, 同时,学术界为更安全和更具伦理的发展贡献了研究和方法论.”
人工智能的多面性意味着其影响和应用在不同领域之间差异很大, 从健康到教育, 经过财政和公共安全. 因此, 有效政策的制定需要一种综合的方法,考虑所有这些变量
公司在这个过程中是至关重要的, 因为它们是大规模实施和使用人工智能的主体. 它们提供见解关于市场需求, 最新的实际挑战和技术创新. 私营部门的贡献有助于确保人工智能政策在现实环境中是可行和相关的
政府, 反过来, 有责任制定保护公民并确保人工智能使用伦理的指导方针. 他们制定了针对安全问题的法规, 隐私和人权. 此外, 政府可以促进不同利益相关者之间的合作,并推动人工智能研究的融资项目
学术界这是这个难题中的第三个关键部分. 大学和研究机构提供坚实的理论基础,并开发新方法,以确保人工智能的安全和伦理发展. 学术研究在识别和减轻人工智能算法中的偏见方面也发挥着至关重要的作用, 确保技术是公正和公平的
这种三方合作使得人工智能政策能够稳健且适应性强, 探讨与使用技术相关的好处和风险. 一个实际的例子可以在公私合营项目中看到, 科技公司与学术机构和政府机构合作,开发符合安全和隐私标准的人工智能解决方案
萨米尔强调说, 没有这种协作方法, 存在制定与实际情况脱节或抑制创新的监管风险. 在监管与创新自由之间找到平衡是至关重要的, 以便我们能够最大化人工智能的好处,同时最小化风险,”结束
人工智能的神话
在当前的环境中, 人工智能(IA)在我们的日常生活中越来越普遍, 许多关于其运作和影响的神话和误解出现
为了澄清, 揭示这些要点, 并结束采访, 萨米尔·卡拉姆以乒乓球式的方式回答了多个问题, 探讨最常见的神话并提供见解关于人工智能现实的宝贵见解
- 关于人工智能的最常见神话是什么,你是如何澄清这些神话的
最大的神话之一是人工智能是无懈可击和完全公正的. 实际上, 她反映了她所接受训练的数据, 如果这些数据存在偏见, 人工智能可以复制它们. 另一个常见的神话是人工智能意味着完全自动化, 什么时候, 实际上, 许多应用程序只是决策辅助工具
- 人工智能真的可以取代所有人类工作吗? 这件事的现实是什么
人工智能不会取代所有工作, 但会改变许多他们. 新的功能将会出现, 要求专业人士发展新技能. 最可能的情景是人类与人工智能之间的合作, 在技术自动化重复任务的地方,人类专注于需要创造力和批判性判断的工作
- 人工智能可能会变得有意识并统治人类,这是真的吗, 如同我们在科幻电影中看到的
今天, 没有任何科学证据表明人工智能可以变得有意识. 当前的模型是处理数据以生成答案的高级统计工具, 但没有任何形式的认知或自我意图
- 所有人工智能都是危险的或可以被用于有害的目的? 我们应该知道关于这件事的什么
像任何技术一样, 人工智能可以用于善或恶. 危险不在于人工智能本身, 但在使用她的过程中. 因此, 监管和负责任的使用同样重要
- 存在一种认为人工智能是无懈可击的看法. 人工智能的实际限制是什么
人工智能可能会犯错误, 主要是在用有限或偏见数据训练时. 此外, 人工智能模型容易受到对抗性攻击的欺骗, 在数据的小范围操作可能导致意想不到的结果
- 人工智能只是一个短暂的潮流还是一种将长期存在的技术
人工智能来了并将持续存在. 它的影响可与电力和互联网相提并论. 然而, 其发展处于不断演变之中, 我们在未来几年还会看到许多变化
- 人工智能系统真的能够做出完全公正的决策吗? 偏见如何影响算法
没有任何人工智能是完全公正的. 如果用于训练她的数据包含偏见, 结果也会有偏差. 理想情况下,公司应采取减轻偏见的措施并进行持续审计
- 所有的人工智能应用都涉及监视和个人数据收集? 人们应该了解关于隐私和人工智能的事项
并非所有的人工智能都涉及监视, 但数据收集在许多应用中是一个现实. 最重要的是用户知道正在收集哪些数据并对此有控制权. 透明度和遵守诸如LGPD(通用数据保护法)和GDPR(一般数据保护条例)等立法 – 欧盟通用数据保护条例是基础