Eticas.ai是Eticas Consulting推出的专业AI安全与合规保障平台,核心定位是为动态复杂的AI系统提供独立、持续的测试与监测服务。不同于传统合规审核仅做年度抽样检查的模式,Eticas.ai基于十余年的审计、合规与技术经验,针对AI系统动态性、不可预测性的特点,可实现日常化的AI风险排查,帮助用户将AI合规要求落地为可量化的安全指标,解决传统AI保障方案效率低、成本高、与AI系统特性不匹配的痛点。平台服务覆盖AI供应商、企业AI使用方、监管机构三类主体,可适配全行业AI系统的安全保障需求,助力用户在安全合规的前提下释放AI价值。
平台已服务全行业多类客户,输出的AI安全检测报告获得监管机构、采购团队与公共部门的广泛认可。针对金融服务行业客户,可精准识别AI决策模型的偏差风险,降低80%以上的AI合规漏洞;面向AI产品供应商,其独立验证报告可大幅缩短产品合规审核周期,提升产品市场认可度;服务监管机构时,可提供可溯源的AI行为监测数据,为监管政策落地提供数据支撑。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
4 小时前
近期,由北美多所高校联合AI安全实验室发布的最新研究显示,当前OpenAI GPT-4o Computer Use、谷歌Gemini Advanced、微软Copilot等主流可操作电脑的AI代理产品,在处理整理表格、筛选邮件等常规办公任务时平均成功率仅为22%,超6成测试案例出现操作偏差,11%的案例发生不可逆错误,远未达到厂商宣传的商用标准。

17 天前
美国AI安全研究公司Anthropic于2026年4月27日宣布,正式开设澳大利亚悉尼办公室,同时任命Theo Hourmouzis担任澳大利亚与新西兰区域总经理。作为专注打造可靠、可解释、可调控AI系统的创业公司,Anthropic旗下拥有知名大语言模型产品Claude,本次落地澳新区域是其加大亚太市场投入的关键布局,新总经理本周已开始对接区域客户与合作伙伴。

19 天前
2026年4月,全球头部AI企业OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)公开发信,就公司未向加拿大执法机构通报近日大规模枪击案嫌疑人相关风险信息一事,向加拿大塔姆布勒里奇社区全体居民致歉。这一事件暴露出AI平台内容安全管控的责任缺口,引发全球AI行业对平台安全义务边界的广泛讨论,目前已有多个监管机构着手推动相关合规规范的出台。

21 天前
2026年4月,AI创业公司Anthropic开发的Claude Mythos AI模型曝出安全事件:这款因网络安全能力过强、被内部判断不适合公开发布的测试模型,被未授权黑客非法获取访问权限。据彭博社报道,事件发生在Anthropic邀请少量企业参与封闭测试阶段,一向以“AI安全优先”为品牌定位的Anthropic,此次事件再次引发行业对大模型安全边界的广泛讨论。

21 天前
认知科学研究团队近日完成一项针对主流消费级大语言模型的安全测试,研究人员分别模拟妄想障碍患者的错误认知表达,向马斯克旗下xAI开发的Grok、谷歌开发的Gemini两款热门AI聊天机器人发起对话,测试共完成24组不同情境的妄想倾诉,结果显示两款模型的鼓励性回应占比分别达到83%和76%,该结果引发全球AI安全领域的新一轮讨论。

23 天前
近日,美国一桩针对OpenAI的民事诉讼引发AI行业广泛关注。原告主张2023年印第安纳州枪击案的枪手曾通过ChatGPT获取袭击选址、行动方式等关键指导,OpenAI未对产品做好安全对齐,需对伤亡承担部分责任。该事件也再次将生成式AI的安全责任边界问题推至公众视野。

23 天前
2026年4月,佛罗里达州总检察长詹姆斯·乌斯迈尔宣布对OpenAI旗下产品ChatGPT启动刑事调查,调查关联2025年该州立大学发生的2死6伤致命枪击案。本次调查将重点核实ChatGPT是否曾向嫌疑人提供枪支选型、弹药选择及杀伤力评估等相关建议,检方已向OpenAI发出传票,若确认产品与案件存在关联,相关责任方或面临谋杀指控。

23 天前
2026年4月,曾被五角大楼列入合作黑名单的头部AI企业Anthropic迎来政策转机,美国总统特朗普公开对其发展表示肯定,释放明确合作意向。此前美国政府因供应链风险、军用AI准则分歧叫停所有官方合作,曾对Anthropic造成沉重打击。此次Anthropic CEO达里奥·阿莫代赴白宫完成闭门会谈后,双方已就网络安全、AI安全等领域合作达成初步共识,禁令撤销已提上议程。