Trong một cuộc xung đột kéo dài sáu tháng, quân đội Israel đã triển khai một hệ thống AI có tên Lavender để xác định các mục tiêu tiềm năng tại Gaza, được cho là đã liệt kê đến 37,000 cá nhân liên kết với Hamas và Tổ chức Jihad Hồi giáo Palestine. Công cụ AI tiên tiến này, được phát triển bởi bộ phận tình báo của IDF, đơn vị 8200, đã xử lý dữ liệu rộng lớn để đánh dấu các phần tử "cấp thấp". Việc sử dụng công nghệ như vậy trong chiến đấu đã gây ra nhiều tranh cãi về pháp lý và đạo đức, làm thay đổi mối quan hệ giữa binh sĩ và công nghệ.
Các sĩ quan tình báo sử dụng Lavender đã bày tỏ cảm xúc lẫn lộn. Một số rất tin tưởng vào hiệu quả "lạnh lùng" của AI hơn là phán đoán cảm xúc của con người, đặc biệt sau những mất mát cá nhân, như những gì đã xảy ra vào ngày 7 tháng 10. Những người khác nghi ngờ về tầm quan trọng của vai trò của họ, khi tốc độ nhanh chóng giảm bớt sự đóng góp của họ xuống chỉ còn là sự chấp thuận. Lavender đóng một vai trò trung tâm trong các hoạt động, xử lý dữ liệu nhanh chóng để xác định mục tiêu, nhưng cũng đặt ra câu hỏi về số lượng thương vong dân sự có thể chấp nhận được trong các cuộc không kích vào các chiến binh cấp thấp.
Đầu cuộc chiến, các quan chức được cho là đã cho phép lên đến 15 hoặc 20 thương vong dân sự trong những cuộc không kích như vậy, thường sử dụng "bom ngu" có thể phá hủy toàn bộ tòa nhà và những người trong đó. Bản kê này là một phần của lời khai của sáu sĩ quan tình báo cho nhà báo Yuval Abraham để thực hiện một báo cáo trong +972 Magazine và Local Call.