一个元, Facebook的母公司, Instagram和WhatsApp, 在即时通讯中实施了其人工智能(IA), 扩展应用程序的功能. 技术, 自2024年4月起已在其他国家提供, 由于国家数据保护局(ANPD)的规定,抵达巴西的时间稍微延长了一些
WhatsApp的人工智能基于先进的语言模型, 像LLaMA(大型语言模型Meta AI的缩写), 经过大量文本数据的训练,以有效理解和生成自然语言. Meta的人工智能能够回答问题, 给出建议, 在应用内搜索我们感兴趣的新闻而无需离开应用,并生成可分享的图片和小GIF, 解释皮埃尔·多斯·桑托斯, 东电信的人工智能分析师
然而, 该工具仍处于Beta阶段, 因此在使用中包含许多错误. 这将随着时间的推移而得到改善, 人工智能的使用方式可能会被重新审视, 因为有很多机会可以增加新服务, 包括与无障碍相关的内容, 补充
姑娘还是恶棍? 取决于使用情况
关于人工智能使用的讨论如此之多, 已经被证明是导致假新闻和深度伪造等行为的原因, 许多人在WhatsApp上使用Meta的人工智能时感到担忧, 没有任何禁用该功能的可能性. Meta表示,与人工智能的对话内容可能会用于训练人工智能算法, 但不将这些内容与用户的个人信息关联, 安抚皮埃尔
尽管没有公开披露数据将如何用于广告定位, 除了专注于人工智能的训练, 持续使用该工具可能会对长期接收广告和宣传产生影响. 数据收集, 在科技市场中是一种常见的做法, 可以用于广告个性化, 受众细分与行为预测, 例如
然而, 我的期望是Meta优先考虑用户的隐私和同意, 以道德和透明的方式利用人工智能,以使用户和广告商都受益,符合我们的法律法规, 分析师的意见
即使技术无法访问WhatsApp上的私人对话,用户的数据仍然受到消息应用加密的保护, 根据人工智能的文档, 与该工具共享的消息可以用于为您提供相关的答案或改进该技术. 因此, 请不要发送包含您不想与人工智能分享的信息的消息. 至少, 我们可以通过在对话中输入/reset-all-ais来删除发送给人工智能的消息, 广告
谨慎使用
皮埃尔还说,人工智能是一种强大的工具,可以在多种情况下发挥作用. 然而, 使用时必须负责任和小心, 始终关注个人数据的安全性和隐私性. 为此, 他分享了一些基本技巧, 然而是宝贵的
- 将人工智能作为辅助工具, 不是作为批判性思维的替代品
- 利用人工智能进行您认为安全且不危害隐私的任务, 避免在对话中与人工智能分享个人或机密信息
- 避免使用人工智能来做出重要决策
- 仅研究一般兴趣主题, 避免敏感或有争议的话题
“这是真的, 每天, 越来越难以识别内容是否由人工智能生成, 但有一些迹象可以帮助你产生怀疑:不明或可疑的来源; 内容好得令人难以置信; 缺乏关于作者的信息; 人工语言; 内容泛泛而无创意; 缺乏情感和主观性, 专家总结道